Когда искусственный интеллект обретет сознание, успеем ли мы это заметить? |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-09-28 12:25 В 2021 году инженер Google Блейк Лемуан попал в заголовки газет и был уволен, когда заявил, что LaMDA, чат-бот, которого он тестировал, разумен. Системы искусственного интеллекта (ИИ), особенно так называемые большие языковые модели, такие как LaMDA и ChatGPT, безусловно, могут казаться сознательными. Но они обучены работать с огромными объемами текста, чтобы имитировать человеческие реакции. Так как же мы можем знать это на самом деле? Теперь группа из 19 ученых-компьютерщиков, нейробиологов и философов разработала подход: не один окончательный тест, а длинный контрольный список атрибутов, которые в совокупности могут предположить, но не доказать, что ИИ обладает сознанием. В 120-страничном дискуссионном документе, опубликованном в качестве препринта на этой неделе, исследователи опираются на теории человеческого сознания, чтобы предложить 14 критериев, а затем применить их к существующим архитектурам искусственного интеллекта, включая тип модели, лежащей в основе ChatGPT. Никто из них, скорее всего, не будет в сознании, заключают они. Но эта работа предлагает основу для оценки все более человекоподобных ИИ, говорит соавтор Роберт Лонг из некоммерческого Центра безопасности ИИ в Сан-Франциско. «Мы внедряем систематическую методологию, которой раньше не было». Адиль Рази, вычислительный нейробиолог из Университета Монаша и научный сотрудник Канадского института перспективных исследований (CIFAR), не принимавший участия в новой работе, говорит, что это ценный шаг. «Мы все начинаем дискуссию, а не придумываем ответы». До недавнего времени машинное сознание было темой научно-фантастических фильмов, таких как «Из машины». «Когда Блейка Лемуана уволили из Google после того, как его убедила LaMDA, это ознаменовало перемены», — говорит Лонг. «Если ИИ может создавать впечатление сознания, это делает его срочным приоритетом для ученых и философов». Лонг и философ Патрик Батлин из Института будущего человечества Оксфордского университета организовали два семинара о том, как проверить разум в ИИ. По мнению одного из сотрудников, вычислительного нейробиолога Меган Питерс из Калифорнийского университета в Ирвине, эта проблема имеет моральное измерение. «Как мы относимся к ИИ, исходя из вероятности того, что он обладает сознанием? Лично меня это отчасти заставляет». По ее словам, привлечение исследователей из разных дисциплин позволило провести «глубокое и детальное исследование». «Лонг и Батлин проделали прекрасную работу по выпасу кошек». Одной из первых задач для стада было определение сознания, «слова, полного ловушек», говорит другой участник, пионер машинного обучения Йошуа Бенджио из Института искусственного интеллекта Мила-Квебек. Исследователи решили сосредоточиться на том, что философ Нью-Йоркского университета Нед Блок назвал «феноменальным сознанием» или субъективным качеством опыта — что значит видеть красный цвет или чувствовать боль. Но как можно исследовать феноменальную сознательность алгоритма? В отличие от человеческого мозга, он не выдает никаких сигналов о своей внутренней работе, которые можно было бы обнаружить с помощью электроэнцефалограммы или МРТ. Вместо этого исследователи применили «насыщенный теорией подход», объясняет соавтор Лиад Мудрик, когнитивный нейробиолог из Тель-Авивского университета: «Они сначала исследовали существующие теории человеческого сознания в поисках основных дескрипторов сознательного состояния, а затем искали их в базовая архитектура ИИ. Чтобы быть включенной в исследование, теория должна была быть основана на нейробиологии и подтверждена эмпирическими данными, такими как данные сканирования мозга во время тестов, которые манипулируют сознанием с помощью трюков восприятия. Также необходимо было допустить возможность возникновения сознания независимо от того, выполняются ли вычисления биологическими нейронами или кремниевыми чипами. Шесть теорий получили оценку. Одной из них была теория рекуррентной обработки, которая предполагает, что передача информации через петли обратной связи является ключом к сознанию. Другая, теория глобального нейронного рабочего пространства, утверждает, что сознание возникает, когда независимые потоки информации проходят через узкое место и объединяются в рабочем пространстве, аналогичном компьютерному буферу обмена. Теории высшего порядка предполагают, что сознание включает в себя процесс представления и аннотирования основных входных данных, полученных от органов чувств. Другие теории подчеркивают важность механизмов контроля внимания и необходимость организма, получающего обратную связь от внешнего мира. Из шести включенных теорий команда извлекла 14 показателей сознательного состояния. Исследователи пришли к выводу, что чем больше индикаторов проверяет архитектура ИИ, тем больше вероятность того, что она обладает сознанием. Эксперт по машинному обучению из Милы Эрик Эльмознино применил контрольный список к нескольким ИИ с различной архитектурой, в том числе к тем, которые используются для генерации изображений, таким как Dall-E2. Для этого требовалось принимать суждения и ориентироваться в серых зонах. Многие архитектуры соответствовали индикаторам теории рекуррентной обработки. Один из вариантов большой языковой модели, лежащей в основе ChatGPT, также продемонстрировал еще одну особенность — наличие глобального рабочего пространства. PaLM-E от Google, который получает входные данные от различных роботизированных датчиков, соответствует критерию «агентство и воплощение». И «Если вы прищуритесь, то увидите что-то вроде рабочего места», — добавляет Эльмознино. Адаптивный агент на основе трансформатора (AdA) DeepMind, который был обучен управлять аватаром в моделируемом трехмерном пространстве, также квалифицируется как «агентство и воплощение», хотя ему не хватает физических датчиков, таких как PaLM-E. Из-за своей пространственной осведомленности «AdA с наибольшей вероятностью… могла быть воплощена в наших стандартах», — говорят авторы. Учитывая, что ни один из ИИ не соответствовал более чем нескольким критериям, ни один из них не является сильным кандидатом на роль сознания, хотя Эльмознино говорит: «Было бы тривиально спроектировать все эти функции в ИИ». Причина, по которой никто этого не сделал, заключается в том, что «неясно, будут ли они полезны для решения каких-либо задач». Авторы говорят, что их контрольный список находится в стадии разработки. И это не единственная такая попытка. Некоторые члены группы, вместе с Рази, участвуют в финансируемом CIFAR проекте по разработке более широкого теста сознания, который также можно применять к органоидам, животным и новорожденным. Они надеются выпустить публикацию в ближайшие несколько месяцев. Проблема всех подобных проектов, говорит Рази, заключается в том, что современные теории основаны на нашем понимании человеческого сознания. Однако сознание может принимать и другие формы, даже у наших собратьев-млекопитающих. «Мы действительно понятия не имеем, каково быть летучей мышью», — говорит он. «Это ограничение, от которого мы не можем избавиться». Источник: www.science.org Комментарии: |
|