Искусственный интеллект: на шаг ближе к будущему |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2016-07-14 14:45 Как мы все прекрасно знаем, один из возможны сценарием БП - уничтожение человечества озверевшим искусственным интеллектом. И учитывая современные темпы развития робототехники, эта вероятность всё возрастает и возрастает. Но самое страшное это не дроны с бензопилами, не следящие машины, которые переезжают ноги маленьким мальчикам, и не обозлённый на весь мир шагоход от Бостон Дайнэмикс. Самое страшное, что уже сейчас мы далеко не всегда может определить по разговору - робот перед нами или человек. И недавние события в Технологическом институте Джорджии это подтвердили. Существует такая штука - тест Тьюринга. Если кратко, то машина, которая способна полностью имитировать человеческое поведение, его проходит с лёгкостью. Если же нет - у человека могут возникать сомнения. Так вот. Многие современные программы ухитряются проходить этот тест с чуть-ли не половинным успехом. Наиболее сложный момент состоит в том, что поведение человека не всегда разумно, логично и рационально. Бывают банальные опечатки, бывает некорректно использование слов, бывают странные эмоциональные реакции. И всё это хрен нормально запрограмируешь. Именно поэтому искусственный интеллект всё ещё далёк от совершенства. Но в ситуации, где человек в принципе не подозревает, что может общаться с программой, а список тем ограничен предсказуемыми вопросами - искусственный интеллект способен поддерживать беседу абсолютно беспалевно. Именно такие условия и было созданы в Джорджии. Профессор информатики Ашок Гоэль вынужден был регулярно отвечать на различные вопросы студентов, которые они задавали на специализированном форуме университета. Но вопросов становилось всё больше и профессор уже не успевал давать нужные ответы каждому желающему. И он нанял 9 ассистентов, одним из которых, как выяснилось спустя 5 месяцев, была программа, написанная на базе IBM Watson. Для студентов это оказалось абсолютной неожиданностью. Программа откликалась на имя Джилл Ватсон, спокойно взаимодействовала со студентами, напоминала им о сроках сдачи работ, помогала в составлении простых программ и алгоритмов. Причём ни один студент не заподозрил, что общается с искусственным интеллектом. Даже те из них, которые работали с алгоритмами системы Watson ничего не заподозрили. Кое-кто шутливо заметил, что фамилия ассистентки напоминает ему о суперкомпьютерах, кто-то высоко оценил скорость и оперативность, с которой она отвечала на вопросы, но предположить, что они общаются с программой - не смог никто. Как объяснял потом Ашок Гоэль: студенты-программисты - довольно примитивные существа. И вопросы они задают практически одни и те же. Если дать самообучающейся программе доступ на форум, где такие вопросы задаются уже который год, то она сможет с лёгкостью составить алгоритм, который позволит ей отвечать на уровне эксперта. Как показал дальнейший анализ - Джилл смогла ответить процентов на 40 задаваемых ей вопросов, среди которых были даже довольно абстрактные и неточные. Подобный эксперимент планируется повторить в 2017 году. Но на этот раз студенты будут знать, что один из ассистентов - искусственный интеллект. И это уже будет намного сложнее - практически полноценный тест Тьюринга. Будет забавно, если некоторые живые ассистенты его не пройдут. Так что, дорогие выживальщики, . Очередной странный посетитель форума или чата может быть не обычным дурачком, а самообучающейся программой. Да практически любой, с кем вы общаетесь по сети может, теоретически, оказаться искусственным интеллектом. Вы не можете быть уверены даже в том, что эту статью написал человек. Скорее всего ваши опасения будут беспочвенными, но мало ли... Источник: lastday.club Комментарии: |
|