Новый проект от OpenAI научил ИИ вести дебаты между собой |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-05-06 11:50 Компания OpenAI, которой владеет Илон Маск, запустила игру в дебаты, которая обучает нейросети говорить правду или врать для достижения желаемого результата. Для реализации проекта была использована новая техника глубокого обучения: агенты ИИ ведут между собой дебаты, а человек судит их. Эта технология создана для осуществления наблюдения за действиями нейросетей и существует как proof-of-concept возможного решения. Как проходят дебаты? По словам представителей компании, техника дебатов во многом похожа на технику самообучения ИИ для игры в го. Алгоритм правильного ответа представлен в виде дерева, в котором только один из путей ведет к верному решению. В отличие от го, где неопытный игрок не всегда может определить качество совершенного профессионалом хода, в дебатах каждое утверждение должно быть понятно судье. В случае, если вывод, к которому пришли агенты ИИ, слишком сложный для понимания человеком, ему предлагаются упрощенные и развернутые варианты ответа.
Можно ли попробовать самому? Также компания открыла аналогичный проект для людей, желающих поэкспериментировать с новой технологией ИИ. Для игры необходимо выбрать тему дебатов, загрузить изображение на сервер и «подбросить монетку» для выбора сторон. Далее машины или люди должны отыграть роли говорящих правду или ложь, открывая изображение по квадратам и убеждая судью некоторыми утверждениями. Судья, который не видит полной картины, решает, кому присудить победу в дебатах. View post on imgur.com Для чего все это? Представители OpenAI говорят, что в будущем они хотят создать такую безопасную систему искусственного интеллекта, чтобы человек всегда мог понимать и контролировать решения машин. Этот подход применим к любым ИИ, так как он упрощает комплексность алгоритмов и выводов, к которым приходят нейросети во время решения поставленной задачи. Контроль и наблюдение за работой нейронных сетей важен для понимания принципов их работы. Напомним, в 2016 году команда исследователей из Google создала нейросеть, которая придумала собственный алгоритм шифрования и не смогла его взломать. Источник: TheNextWeb Тимур Кондратьев Источник: tproger.ru Комментарии: |
|