Эксперимент «Китайская Комната», или почему ИИ на самом деле ничего не понимает? |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-05-06 12:55 Вот уже несколько десятилетий ученые, писатели-фантасты и просто любители робототехники спорят, будет ли когда-либо ИИ мыслить, воспринимать себя и окружающую действительность так, как делают это люди. А может, он уже это делает? Данной теме были посвящены различные теории и опыты, в том числе «Китайская комната» – мысленный эксперимент, который в 1980 году представил Джон Серл. Философ Джон Серл уже почти 40 лет критикует идею сильного ИИ, который может осознавать себя и мыслить. Серл утверждает, что роботы не могут быть разумными, даже если кажутся таковыми для людей. Описание эксперимента Возьмем некоего подопытного (Серл проделал эксперимент на себе), запертого в комнате. У него есть определенный набор китайских иероглифов, при этом он совершенно не знает китайский язык, и все иероглифы выглядят для него одинаково бессмысленными символами. В эксперименте он сопоставил бессмысленные иероглифы из двух наборов, следуя инструкции на понятном ему языке (для Серла – это английский). Объяснения ориентируются на форму символов и не раскрывают их значения, то есть это указания вроде «Взять иероглиф, выглядящий как домик, и положить к иероглифу, выглядящему, как человечек». Затем он делает то же с третьим набором. В итоге, знаток китайского видит понятный текст и ошибочно предполагает, что участник знает китайский язык. Данный пример Серл предлагает переложить на роботов: у них есть набор информации и алгоритмы для ответов на вопросы, что может создать иллюзию разумности. Например, робот София – первый робот, получивший гражданство, обрабатывает речь, естественно отвечает, и даже умеет шутить, но вопрос остается прежним: понимает ли она смысл или просто просто сопоставляет «китайские иероглифы» согласно некоей инструкции? Что мы должны вынести из «Китайской комнаты»? До сих пор нет единого мнения, как соотносятся мозг и сознание. Существует теория функциональности, она же теория функционализма, которая подразумевает, что наши ментальные состояния (включая сознание) – это некий набор функций. Повторив набор функций вне мозга (например, в компьютере), возникает ментальное состояние. Однако Серл и другие философы считают сознание уникальным свойством мозга, невоспроизводимым вне него, что демонстрирует эксперимент «Китайская комната». Источник: vk.com Комментарии: |
|