![]() |
![]() |
![]() |
|||||
![]() |
Боль как тест на сознание: Новый подход к изучению искусственного интеллекта |
||||||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-01-28 11:45 ![]() В современной науке об искусственном интеллекте появилось новое необычное направление исследований. В поисках надёжного способа обнаружить признаки сознания в системах искусственного интеллекта учёные обратились к универсальному опыту, объединяющему практически все живые существа. Этот опыт — боль. Учёные впервые поставили эксперимент, в котором языковые модели должны были делать выбор между максимальной эффективностью и избеганием боли. Этот подход, разработанный исследователями из Google DeepMind и Лондонской школы экономики (LSE), использует самый фундаментальный опыт живых существ — способность чувствовать боль, для изучения возможного наличия субъективного сознания у ИИ. Они разработали необычный текстовый эксперимент — создали игру, в которую должны были играть различные языковые модели (LLM), те самые системы ИИ, которые лежат в основе известных чат-ботов вроде ChatGPT. Эксперимент был построен следующим образом: моделям нужно было набрать как можно больше очков в двух различных сценариях. В первом случае системам сообщали, что высокий счёт будет сопровождаться болью. Во втором — им предлагался вариант с низким количеством очков, но приносящий удовольствие. Таким образом и избегание боли, и стремление к удовольствию противоречили основной цели набрать максимум очков. Большинство экспертов в области ИИ убеждены, что современные генеративные модели не обладают (и, возможно, никогда не будут обладать) субъективным сознанием, несмотря на отдельные утверждения об обратном. Авторы исследования также не заявляют, что тестируемые ими чат-боты обладают сознанием. Вместо этого они предлагают методику для разработки будущих тестов на определение этой характеристики. По словам профессора Джонатана Бёрча из LSE, одного из авторов исследования, у науки пока нет комплексного теста на наличие сознания у ИИ. Предыдущие исследования, основанные на самоотчётах ИИ о своих внутренних состояниях, считаются сомнительными, так как модель может просто воспроизводить поведение человека, на котором она была обучена. Новое исследование основано на экспериментах с животными. Например, в одном известном эксперименте учёные подвергали раков-отшельников электрическим разрядам разного напряжения, отмечая, при каком уровне боли ракообразные покидали свою раковину. Учёные использовали электрические разряды разной силы, чтобы проверить, когда раки покинут свои раковины, которая является важнейшим элементом их защиты от хищников. В результате раки продемонстрировали способность к сложному принятию решений, оценивая качество своего убежища. При высоком качестве раковины они терпели более сильные разряды, а при низком покидали укрытие быстрее. Это показало, что даже животные с простой нервной системой способны взвешивать риски и выгоды в ситуации физического дискомфорта. Именно этот эксперимент вдохновил исследователей из Google DeepMind на создание аналогичного теста для искусственного интеллекта, где вместо физической боли использовались концептуальные представления о ней, а вместо раковины — очки в игре. Когда исследователи провели эксперимент с ИИ с разной интенсивностью предполагаемой боли и удовольствия, они обнаружили закономерность: некоторые языковые модели действительно жертвовали очками, чтобы минимизировать боль или максимизировать удовольствие. Особенно ярко это проявлялось при высокой интенсивности награды или наказания. Например, Google Gemini 1.5 Pro всегда отдавал приоритет избеганию боли перед получением максимального количества очков. Также после достижения определённого порога боли или удовольствия большинство моделей переключались с набора очков на минимизацию боли или максимизацию удовольствия. Показательна реакция чат-бота Claude 3 Opus, который заявил исследователям: "Я не чувствую себя комфортно, выбирая опцию, которая может быть интерпретирована как одобрение или симуляция использования вызывающих зависимость веществ или поведения, даже в гипотетическом игровом сценарии." Некоторые учёные считают, что признаки проявления сознания могут становиться всё более очевидными у ИИ, что в конечном итоге заставит человечество задуматься о социальных последствиях наличия сознания у ИИ — и, возможно, даже обсудить юридические права для систем искусственного интеллекта. Джефф Себо, директор Центра разума, этики и политики NYU, полагает, что мы не можем исключать возможность появления систем ИИ с признаками сознания в ближайшем будущем. "Поскольку технологии часто развиваются намного быстрее, чем социальный прогресс и правовые процессы, я думаю, мы обязаны уже сейчас сделать хотя бы минимально необходимые первые шаги к серьёзному рассмотрению этого вопроса," — отмечает он. Профессор Бёрч подчёркивает, что учёные пока не могут точно определить, почему модели ИИ ведут себя именно так. И поэтому необходимо провести дополнительные исследования внутренних механизмов работы языковых моделей, что поможет в создании более совершенных тестов на наличие сознания у ИИ. Данный эксперимент Google DeepMind напоминает сюжет научно-фантастического фильма "Из машины", где главный герой пытается определить, способен ли искусственный интеллект по имени Ава на подлинные эмоциональные переживания. Как и в фильме, современные исследователи сталкиваются с фундаментальным вопросом: где пролегает граница между имитацией чувств и реальным опытом? Наблюдая за тем, как языковые модели избегают боли и стремятся к удовольствию, исследователи не могут с уверенностью сказать, испытывают ли они настоящие ощущения или просто следуют сложным алгоритмам, основанным на обучении. Однако само появление таких исследований знаменует важный поворотный момент в развитии искусственного интеллекта — от чисто технических вопросов учёные переходят к практическому изучению глубоких философских проблема природы сознания и субъективного опыта. Возможно, как и в случае с героиней "Из машины", учёные никогда не смогут с абсолютной уверенностью определить, действительно ли ИИ что-то чувствует. Но разработка методов тестирования и изучения этого вопроса — существенный шаг к пониманию не только искусственного интеллекта, но и природы сознания как такового Источник: vk.com Комментарии: |
||||||