Ученые создадут «большую красную кнопку» для выключения искусственного интеллекта |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2016-06-04 22:23 По словам ученых, такая система может предотвратить совершение действий, которые могут привести к «необратимым последствиям». 2001: A Space Odyssey / Metro-Goldwyn-Mayer, Stanley Kubrick Productions Исследователи из Оксфордского университета и лаборатории DeepMind, принадлежащей Google, начали работу над системой аварийного выключения для самообучающихся алгоритмов. Об этом сообщает Business Insider со ссылкой на Институт изучения машинного интеллекта (MIRI). «Если такой агент [искусственный интеллект] работает в режиме реального времени под наблюдением человека, то иногда может возникнуть ситуация, при которой оператор будет вынужден нажать на большую красную кнопку, чтобы остановить агента от выполнения действий, опасных для самого агента или его окружения.» Авторы отмечают, что самообучающиеся алгоритмы могут со временем обнаружить какой-нибудь механизм обхода или игнорирования штатной стоп-команды оператора. По словам исследователей, цель работы - создание фреймворка, который не позволит искусственному интеллекту найти способ игнорирования команды отключения. Также «большая красная кнопка» должна гарантированно прервать текущую деятельность робота и максимально обезопасить его и окружающих при потенциально опасной ситуации, а также предотвратить совершение действий, которые могут привести к «необратимым последствиям». Вопросы безопасности, связанные с разработкой систем искусственного интеллекта, озвучивались и ранее. В 2015 году Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк и многие другие ученые, бизнесмены, знаменитости, исследователи и специалисты в области робототехники и искусственного интеллекта подписали открытое письмо, предостерегающее производителей оружия от создания полностью автономных боевых систем. Телеграм: t.me/ainewsline Источник: tjournal.ru Комментарии: |
|