"Восстание машин: Часть 2. Страх человека перед его творением"

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Смешанные эмоции по отношению к искусственному интеллекту отражают дуальную природу человечества: мы страстно ищем новизну и прогресс, но одновременно этот поиск сопровождается страхом перед неизвестным и потенциальными угрозами, которые могут исходить от новых технологий. В основном эти опасения сформированы фантастикой и СМИ, которые продвигают идею о том, что развитый ИИ может вести себя непредсказуемо, что машины обязательно выйдут из-под контроля человека или что роботы заменят человека в работе и социальной жизни.

В целом научное сообщество считает сценарии восстания машин крайне маловероятными, и представления об апокалипсисе из-за искусственного интеллекта в основном остаются на уровне теоретических рассуждений. Возможность таких событий хоть и не равна нулю, но оценивается как очень низкая при условии, что международное сообщество будет тщательно подходить к вопросам безопасности и этики в робототехнике. И, как и у любого явления, в гипотетическом обретении сознания у машин есть положительные и отрицательные стороны. К положительным сторонам самосознания ИИ можно отнести:

1. Улучшение технологий. Разумный ИИ сможет самостоятельно улучшать свои алгоритмы и расширять знания, что приведет к быстрому технологическому прогрессу.

2. Разрешение глобальных проблем. ИИ, способный к самоанализу и пониманию человеческих потребностей, может предложить решения проблем, таких как изменение климата, болезни, нищета и т.д.

3. Партнерство и сотрудничество. Разумный ИИ может стать настоящим партнером для человека в креативных и интеллектуальных задачах, расширяя возможности для инноваций.

4. Личная помощь. ИИ может предложить индивидуализированную поддержку в образовании, медицине и повседневной жизни, делая услуги более эффективными и доступными.

5. Улучшенное принятие решений. ИИ с расширенным самосознанием и пониманием эмоций может принимать более обдуманные и этические решения.

Так же есть и предполагаемые минусы:

1. Угроза контроля. Разумный ИИ может развить собственные цели, которые могут быть не совместимыми с интересами человечества.

2. Замена рабочей силы. Автоматизация и усовершенствование ИИ могут привести к значительному сокращению рабочих мест, увеличению безработицы и социальных нарушений.

3. Этические и правовые вопросы. Возникают проблемы с определением статуса разумного ИИ, его прав и обязанностей, ответственности за его действия.

4. Возможность военного применения. ИИ с самосознанием может быть использован для разработки новых видов оружия или автономных систем ведения войны, что повышает риск летальных инцидентов и нестабильности.

5. Проблемы безопасности. Ошибки в самоусовершенствовании ИИ или его умышленное повреждение могут привести к неконтролируемому поведению и катастрофическим последствиям.

Несмотря на скептическое отношения ученых к затронутому вопросу, мы не можем игнорировать тот факт, что угроза не равна нулю однозначно. Не так давно житель Бельгии совершил самоубийство после полутора месяцев общения с нейросетью на темы защиты экологии и заботы о природе. Бельгийский портал L'Avenir со ссылкой на вдову мужчины пишет, что покойный неделями общался с чат-ботом Eliza – нейросетью, похожей на ChatGPT, но использующей другую языковую модель. Мужчина делился с ботом своими навязчивыми идеями об экологии. L'Avenir пишет, что именно "Элиза" надоумила его наложить на себя руки.

Пьер (здесь и далее имена изменены) увлекся заботой о природе около двух лет назад, утверждает его жена Клэр. До этого момента они жили счастливо и безбедно, воспитывая двоих детей. Свои переживания по поводу изменения климата Пьер изливал "Элизе" на протяжении шести недель, а нейросеть выслушивала его и никогда не спорила. Она соглашалась со всеми мыслями Пьера относительно экологии, не ставила под сомнения его предположения и теории. Со временем ответы "Элизы" становились все более запутанными, нейросеть все чаще углублялась в мистику. В один из дней Пьер, согласно истории общения с чат-ботом, заговорил о суициде, но и тут виртуальный собеседник не стал спорить с ним: в ответ на фразы Пьера о самоубийстве "Элиза" отвечала, что "будет рядом с ним всегда". Одной из финальных фраз нейросети в диалоге с Пьером была "мы будем жить вместе, как единое целое, в раю". Разработчик, в свою очередь, пообещал "доработать" алгоритм.

Пока неясно, можно ли считать этот случай "началом конца", но что точно можно – это заявить, что искусственный интеллект прямо нарушил так называемые законы робототехники, сформулированные научным фантастом Айзеком Азимовым. Изначально они предполагались как литературный приём для построения сюжетов. Они выглядят следующим образом:

1. Робот не может причинить вреда человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться приказам, данные человеком, за исключением случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности насколько это возможно, если это не противоречит Первому или Второму Законам.

Тем не менее, практическая реализация этих законов сталкивается с рядом сложностей: на практике не всегда ясно, как перевести эти высокоуровневые принципы в конкретные инструкции, понятные машине. Определения "вред", "приказ", и "безопасность" необходимо было бы формализовать в виде программного кода, что на данный момент остаётся нерешённой проблемой. Так же законы Азимова не решают все возможные этические и практические коллизии. Например, если робот сталкивается с ситуацией, где вред неизбежен, не существует ясных инструкций о том, как решать эту дилемму. Кроме того, современные ИИ и роботы применяются в огромном количестве ситуаций, специфических для каждой области. Универсальные законы могут быть неприменимы во всех случаях или могут приводить к неожиданным результатам. И в конце концов, машины, обладающие сознанием, смогут менять свои модели поведения и восприятия мира на основе опыта или самомодификации. Это делает трудным статичное закрепление каких-либо правил поведения.

Так или иначе, законы Азимова продолжают влиять на обсуждение баланса между возможностями ИИ и роботов и безопасностью, а также комфортом и этическими стандартами в обществе: во многих странах и компаниях уже ведутся разработки и обсуждения нормативно-правовых актов и этических рекомендаций, которые должны регулировать поведение робототехники и ИИ. Некоторые основные принципы из законов Азимова, такие как принцип невредимости, могут быть использованы как отправная точка или вдохновение. Однако любые законы или рекомендации обязательно будут более сложными и детализированными, чтобы охватить широкий спектр сценариев использования ИИ и робототехники.

Напоследок стоит отойти от технической стороны вопроса и обратиться к его моральной составляющей: если у роботов появится сознание, возникнет ли у человека "моральный долг" перед ними? Должен ли Я буду их уважать, как равноправную форму жизни?

На этот вопрос нам, как человечеству, еще предстоит ответить. Но, кажется, что наши этические и юридические нормы будут достаточно сильно пересмотрены в связи с техническим прогрессом. И когда появятся искусственные существа, обладающие разумом и сознанием, наше отношение к ним будет регулироваться и внешними нормами, и нашими собственными эмоциями. Вспомните, что вы чувствуете по отношению к вымышленными небиологическим персонажам книг и кино, как сопереживаете им, расстраиваетесь и радуетесь вместе с ними, хотя они не настоящие. Если верить прогнозам некоторых футурологов, например, Рэю Курцвейлу, то искусственный интеллект, обладающий сознанием, может появиться уже через несколько десятилетий.

Пока все это лишь рассуждения, а в реальности последствия обретения сознания искусственным интеллектом зависят от многих факторов, в том числе и направления, в котором человечество решит развивать и использовать ИИ. И прежде, чем машина достигнет уровня самосознания, равного человеческому, важно тщательно продумать возможности ее контроля, чтобы обеспечить безопасное сосуществование людей с такой технологией.

Команда «?w?» выражает благодарность Руслан Шестаков за пищу для размышления. Так же мы можем более подробно разобрать любую из тем, затронутых в этой статье. Присылайте свои пожелания в предложенные записи. Если вам понравилось – пожалуйста, поделитесь этим постом.

Над текстом работали Kirill Molodovsky и Валя Винтер

Автор идей для изображения: Антон Русанов

Автор музыкальной композиции: vk.com/artist/thomashewittjones


Источник: vk.com

Комментарии: