Названа главная проблема в создании искусственного разума

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Названа главная проблема в создании искусственного разума

Специалисты по проблемам искусственного интеллекта Кевин Уорик (Kevin Warwick) и Хюма Шах (Huma Shah) обнаружили серьезную проблему в стандартном тесте Тьюринга. Тест определяет, способен ли искусственный интеллект мыслить подобно человеку. Пресс-релиз о работе британских ученых доступен на сайте TechXplore. Научная статья опубликована в Journal of Experimental & Theoretical Artificial Intelligence.

Кибернетики выяснили, что если машина прибегнет к своеобразному аналогу Пятой поправки (к Конституции США), то есть будет хранить молчание в течение всего теста, то она пройдет испытание. В таком случае искусственный интеллект, который просто-напросто откажется отвечать на вопросы судьи, будет признан мыслящим существом. Однако молчать может любая примитивная машина, которая не обладает интеллектом, поэтому тест Тьюринга при данных условиях перестает работать.

Тест на проверку мыслительных способностей искусственного интеллекта был предложен в 1950 году английским математиком и криптографом Аланом Тьюрингом. По мнению ученого, он является единственной возможностью выяснить, способна ли машина на человеческое мышление. Также известный как «Игра в имитацию» тест предлагает человеку-судье вслепую задавать письменные вопросы двум испытуемым: другому человеку и искусственному интеллекту. По полученным ответам нужно определить, кто из них кто. Если этого сделать не удается, машина признается мыслящей.

Уорик и Шах изучили записи настоящих тестов с конкурса Лебнера, в которых искусственный интеллект отказывался «разговаривать» с судьей. В каждом случае судья не смог определить, с кем он имеет дело — с машиной или с человеком. Испытуемый мог оказаться человеком, который решил не отвечать на вопросы, искусственным интеллектом или машиной, просто неспособной на ответ. В рассмотренных тестах имел место именно третий вариант.

Ученые назвали эту проблему «Пятой поправкой» по аналогии с поправкой к Конституции США, которая гласит, что человек не должен принуждаться к тому, чтобы свидетельствовать против себя.

Конкурс Лебнера является основной платформой для проведения тестов Тьюринга. В нем участвуют разработчики чат-ботов и виртуальных собеседников. Критики конкурса отмечали, что программы, оказавшиеся победителями, создавались таким образом, чтобы специально вводить судей в заблуждение, нарочно совершая орфографические ошибки и прибегая к другим уловкам.


Источник: texnomaniya.ru

Комментарии: