Как искусственный интеллект обыграл чемпиона мира по Го? |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-01-16 04:06 Попытки ИИ превзойти человека в играх регулярно предпринимаются исследователями разных стран. В 1997 году Deep Blue одержал победу над Гарри Каспаровым, а в 2011 суперкомпьютер IBM Watson сумел победить в телепередаче Jeopardy. Го — одна из последних игр, в которой игроки-люди все еще могли победить искусственный интеллект. Рассказываем, как нейросети удалось обойти человека и на этом поле. Древнекитайская Го — логическая настольная игра с глубоким стратегическим содержанием, возникшая от 2 до 5 тысяч лет назад. Активное распространение игра получила в 20 веке, став одной из самых распространённых настольных игр в мире. Кроме того, она входит в пять базовых дисциплин Всемирных интеллектуальных игр. Все началось в 2013 году, когда разработчики DeepMind, стартапа из Великобритании, опубликовали работу, в которой рассказывалось о том, как нейросеть научилась играть в 50 аркадных игр Atari. Вскоре после этого компанией заинтересовалась Google, купив стартап за $400 млн. Несколько лет спустя мир снова заговорил о DeepMind. Компания, будучи под крылом американской корпорации, переключила свое внимание с компьютерных игр на настольные — го. Команда ученых разработала новую нейросеть AlphaGo, способную играть и обучаться во время игры. ИИ обучили на 30 млн ходов партий реальных людей. Процесс обучения требовал большое количество вычислительных мощностей, для этого было задействовано облако Google Cloud Platform. В качестве тестирования AlphaGo сыграла с другими решениями и выиграла 499 матчей из 500. Вскоре после этого был организован настоящий матч: приглашены судья Британской федерации го, журналисты и профессиональный игрок Фань Хуэй, трёхкратный чемпион Европы. Матч проводился за закрытыми дверями лондонского офиса Google и нейросеть одержала победу со счетом 5:0. Далее AlphaGo смогла обыграть величайшего игрока мира, Ли Седоля, со счётом 4:1 в марте 2016. Весь процесс был записан для документального фильма. Седоль воспринял поражение с грустью: казалось, что проиграл не один человек, а все человечество. Однако это не совсем так. Победа ИИ стала знаменательным событием в сфере исследований искусственного интеллекта: ранее обучение алгоритмов игре на высоком уровне считалось недосягаемым, а появление подобных технологий предсказывали через 5-10 лет. Источник: vk.com Комментарии: |
|