IBM создала ИИ, придерживающийся норм этики |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-07-19 19:07 Разработчики из IBM создали искусственный интеллект, который динамически формирует нормы этики, выражающиеся в наборе правил при создании алгоритмов рекомендации контента. Процесс обучения Созданная IBM нейросеть обучается в два этапа. Сначала ИИ получает набор примеров с ограничениями, которых должна придерживаться система рекомендаций. Обрабатывая полученные данные, нейросеть формирует требуемые нормы этики. Чем больше набор примеров, тем точнее будут выработанные ограничения. На втором этапе ИИ работает непосредственно с пользователем, изучая его предпочтения и реакцию на различный контент. Исходя их полученных сведений, система формирует список рекомендованных к просмотру видеозаписей. При этом нейросеть придерживается полученных ранее этических ограничений. В настройках системы можно задать соотношение приоритетов между интересами пользователя и нормами этики. Системе нужен наставник Проблема такого подхода заключена в необходимости составления для ИИ подборки примеров. В связке дети-родители определять ограничения призвано старшее поколение. Однако в подавляющем большинстве случаев система остаётся с пользователем тет-а-тет. Пользователь может и сам определить для себя некоторые этические нормы, впрочем, точно так же, он может их и изменить. Над данной проблемой группа исследователей IBM продолжает работать совместно с MIT Media Lab. Пока разработчики предлагают выбрать в качестве наставника, отвечающего за вопросы этики, друга или члена семьи. В 2017 году сотни исследователей и IT-экспертов, в числе которых были Илон Маск и Стивен Хокинг, составили список из 23 основных принципов, которых стоит придерживаться при разработке ИИ. В том же году Институт инженеров электротехники и электроники определил нормы этики для искусственных интеллектов. Теперь ИИ учатся формировать этику для людей. А 17 июня 2018 года IBM объявила о создании нейросети, способной аргументированно спорить с живыми оппонентами. Источник: VentureBeat Источник: tproger.ru Комментарии: |
|