ИИ DeepMind научился делать умозаключения |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-10-06 22:30 Команда ИИ-специалистов из Британии и США исследовала, может ли искусственный интеллект обобщить свой опыт, полученный в ходе взаимодействий с объектами в двух- и трехмерной среде. Специалисты DeepMind, Стэнфордского университета и Университетского колледжа Лондона исследовали возможность интеллектуальных агентов применять полученные знания для выполнения следующих задач, лишь косвенно связанных с предыдущей. Результаты показывают, что в среде, сгенерированной игровым движком Unity, агенты под управлением ИИ корректно использовали «композиционную природу» языка, чтобы интерпретировать инструкции, которые они никогда ранее не встречали, пишет VentureBeat. «ИИ, обучавшиеся в идеализированных или усеченных ситуациях, могут быть лишены композиционного или систематического понимания своего опыта. Это знание возникает у них, когда они, как и учащиеся люди, получают доступ к разнообразным примерам и многосторонним наблюдениям, — говорится в статье. — Следовательно, во время обучения агент учится не только следовать инструкциям, но и узнает, как образованы текстовые символы и как комбинация этих слов воздействует на то, что должны делать агенты». Ученые исследовали вопрос, до какой степени они могли бы наделить модель ИИ «систематичностью» — свойством сознания, с помощью которого способность обдумывать мысль воздействует на способность размышлять о чем-то семантически родственном. Например, систематичность позволяет человеку, понявшему фразу «Джон любит Мэри», понять также и «Мэри любит Джона». В серии экспериментов ИИ, наблюдающий за миром от первого лица, получил задачу выполнять инструкции вроде «найти зубную щетку» и «поднять вертолет». В результате агент справился с 26 действиями, а после обучения он смог выполнить задачу всего за шесть действий. В частности, он понял значение приказа «подними» достаточно полно, чтобы выполнить это действие с объектом, которого ранее не видел. Любопытно, что агенты, прошедшие обучение в трехмерных мирах, показывали лучшие результаты генерализации, чем те, которых тренировали в 2D. Три фактора ученые сочли наиболее важными во всех тестах: число слов и объектов, с которыми взаимодействовал агент; вид от первого лица; разнообразие входящих сигналов, доступных агенту. Искусственный интеллект Word2vec, не имевший изначально никаких представлений о материаловедении, смог разобраться в значении терминов, понял, что такое таблица Менделеева, а затем успешно предсказал появление новых материалов. Источник: hightech.plus Комментарии:
Ян Дененберг, 2019-10-07 15:24:10
Да фигня всё это, не верю! Если наука может всё, то пусть найдёт способ оживлять мёртвых. |
|