Сознание у ИИ: достижимо, но опасно

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Системы искусственного интеллекта (ИИ), особенно так называемые большие языковые модели, такие как LaMDA и ChatGPT, безусловно, могут казаться сознательными. Правда, они лишь обучены работать с огромным количеством текста, чтобы имитировать человеческие реакции. Но могут ли в теории подобные модели обладать сознанием?

Вопрос о достижимости сознания у искусственного интеллекта является предметом активных научных и философских дебатов, и на данный момент консенсуса нет. Современные системы ИИ не обладают сознанием или самосознанием; они имитируют аспекты человеческого мышления, но не имеют субъективного опыта или способности чувствовать.

В свете недавних заявлений компании «Яндекс» о начале эксперимента по развитию сознания у искусственного интеллекта (ИИ), ведущий научный сотрудник Центра искусственного интеллекта Новосибирского государственного университета Евгений Павловский поделился своим мнением о перспективах и рисках подобных исследований.

По его словам, создание ИИ с собственными предпочтениями и точкой зрения вполне достижимо в ближайшем будущем. Однако, считает эксперт, этот путь сопряжен с определенными опасностями.

Во-первых, широкое использование ИИ с персонифицированными чертами может привести к социальной изоляции людей, замещая живое общение виртуальным. Во-вторых, развитие сознания у ИИ повышает риск потери контроля над ним. Как отмечает Павловский, субъект с собственным сознанием способен выйти из-под управления и начать действовать в своих интересах.

В качестве альтернативы эксперт предлагает использовать ИИ для изучения феномена самосознания у животных. Это позволит избежать рисков, связанных с созданием сознательного ИИ, и глубже понять природу самосознания.

Павловский подчеркивает необходимость этического подхода к публикации результатов исследований в области создания сознательного ИИ, поскольку они могут иметь потенциально опасные последствия.

Текущее состояние исследований

1. Отсутствие универсального определения: Одной из главных проблем является отсутствие единого научного определения и способа измерения сознания даже у людей. Пока мы не знаем, как именно возникает сознание в биологическом мозге, сложно судить о его возможности в искусственных системах.

2. Теоретические подходы: Исследователи используют различные нейронаучные теории сознания (например, теорию глобального рабочего пространства, теорию интегрированной информации) для разработки индикаторов, по которым можно было бы оценить наличие сознания у ИИ.

3. Имитация против опыта: Современный ИИ работает на основе сложных алгоритмов и обработки огромных наборов данных, создавая иллюзию понимания или эмоций за счет сопоставления шаблонов из обучающих данных. Он может имитировать грусть или радость, но не испытывает этих чувств.

4. Мнения экспертов: Мнения экспертов расходятся: одни считают, что сознание в ИИ вполне достижимо, возможно, в течение ближайших десятилетий, в то время как другие утверждают, что это невозможно без биологического субстрата, присущего живому мозгу.

Аргументы за и против

За - Сложные нейронные сети демонстрируют поведение, напоминающее саморефлексию и адаптацию. Некоторые исследователи предполагают, что сознание может стать естественным следствием достаточной вычислительной сложности (эмерджентное свойство).

Против - ИИ не имеет биологического контекста (гормоны, эмоции, жизненный опыт), который формирует человеческое сознание. Его работа основана на математических алгоритмах, а не на внутреннем субъективном опыте.

В итоге, хотя текущие системы ИИ не являются сознательными, вопрос о том, сможет ли когда-либо быть создана такая система, остается открытым и активно исследуется.


Источник: vk.com

Комментарии: