Искусственный интеллект научился проходить трёхмерный лабиринт |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2016-02-08 17:05 Искусственный интеллект Google DeepMind продолжает успешно справляться с поставленными задачами: совсем недавно "Вести.Наука" сообщили о том, как он научился играть в видеоигры и достиг успехов в древней игре го. Теперь DeepMind продемонстрировал свои способности при прохождении виртуального 3D-лабиринта, похожего на лабиринт из игры Doom 1993 года. Главная особенность такого достижения заключается в том, что, в отличие от большинства игровых искусственных интеллектов (ИИ), система не имеет доступа к внутренним кодам игры. Она действует, как если бы действовал обычный человек, глядя на экран и выбирая свою дальнейшую стратегию поведения. Разработчики уверены, что способность искусственного интеллекта ориентироваться в трёхмерном пространстве с помощью "зрения" может быть в дальнейшем полезна при работе в реальном мире. Работа основана на исследовании специалистов DeepMind, опубликованном в прошлом году: команда обучила ИИ играть в 49 различных видеоигр приставки Atari 2600, которая была популярна в 1980-е годы. Программное обеспечение не знало правил игры: ему нужно было просто смотреть на экран и придумывать свои собственные стратегии, чтобы получить высокий балл. Система переиграла самого успешного игрока-человека в 23 играх. Искусственный интеллект опирался на технологию под названием обучение с подкреплением, позволяющую нарабатывать опыт и сочетающуюся с глубокими нейронными сетями, которые анализируют и узнают изображение на экране. ИИ также мог обращаться к своей памяти и изучать предыдущие сценарии и технику, используя накопленный опыт. Тем не менее у этой стратегии были и свои недостатки, из-за которых было сложно масштабировать стратегию для решения более сложных проблем. Она использовала большой памяти и производила слишком много вычислений. Так что команда разработчиков создала новую технику - асинхронное обучение с подкреплением, которое позволяет машине видеть несколько вариантов решения проблемы и сравнивать их. Этот подход требует меньшей вычислительной мощности. Предыдущая версия требовала восемь дней тренировок на высокопроизводительных графических процессорах, новая же достигает более высокой производительности на более скромных процессорах всего за четыре дня. Так, в простой гоночной 3D-игре ИИ добился 90% человеческих результатов. Телеграм: t.me/ainewsline Источник: www.vesti.ru Комментарии: |
|