Новый проект от OpenAI научил ИИ вести дебаты между собой

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Компания OpenAI, которой владеет Илон Маск, запустила игру в дебаты, которая обучает нейросети говорить правду или врать для достижения желаемого результата. Для реализации проекта была использована новая техника глубокого обучения: агенты ИИ ведут между собой дебаты, а человек судит их. Эта технология создана для осуществления наблюдения за действиями нейросетей и существует как proof-of-concept возможного решения.

Как проходят дебаты?

По словам представителей компании, техника дебатов во многом похожа на технику самообучения ИИ для игры в го. Алгоритм правильного ответа представлен в виде дерева, в котором только один из путей ведет к верному решению. В отличие от го, где неопытный игрок не всегда может определить качество совершенного профессионалом хода, в дебатах каждое утверждение должно быть понятно судье. В случае, если вывод, к которому пришли агенты ИИ, слишком сложный для понимания человеком, ему предлагаются упрощенные и развернутые варианты ответа.

openai

Можно ли попробовать самому?

Также компания открыла аналогичный проект для людей, желающих поэкспериментировать с новой технологией ИИ. Для игры необходимо выбрать тему дебатов, загрузить изображение на сервер и «подбросить монетку» для выбора сторон. Далее машины или люди должны отыграть роли говорящих правду или ложь, открывая изображение по квадратам и убеждая судью некоторыми утверждениями. Судья, который не видит полной картины, решает, кому присудить победу в дебатах.

View post on imgur.com

Для чего все это?

Представители OpenAI говорят, что в будущем они хотят создать такую безопасную систему искусственного интеллекта, чтобы человек всегда мог понимать и контролировать решения машин. Этот подход применим к любым ИИ, так как он упрощает комплексность алгоритмов и выводов, к которым приходят нейросети во время решения поставленной задачи.

Контроль и наблюдение за работой нейронных сетей важен для понимания принципов их работы. Напомним, в 2016 году команда исследователей из Google создала нейросеть, которая придумала собственный алгоритм шифрования и не смогла его взломать.

Источник: TheNextWeb


Источник: tproger.ru

Комментарии: