Этичный и объяснимый ИИ? - Сергей Карелов, Константин Воронцов и Игорь Пивоваров — Семинар AGI |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2022-08-12 20:02 Этичный и объяснимый ИИ — это пустая болтовня или реальная проблема современной разработки ИИ? • Для США – это индивидуальная протестантская трудовая этика, делающая акцент на ответственности и правах личности и потому всячески противящаяся любым использованиям ИИ, грозящих нарушением прав человека и размыванию границ его ответственности. • А для Китая – это лежащая в основе стратегии развития Китая конфуцианская этика, делающая акцент не на личности, а на обществе, и в результате этого готовая смирится с нарушением прав отдельных людей, осуществляемых на пользу обществу. Столь разные этические системы США и Китая ведут к во многом противоположным видениям “Good AI Society”: • Китайское видение – это гармонизация прорывных последствий развития ИИ в целях сохранения социальной стабильности и поддержки авторитарного руководства страны. • Видение же США делает неприемлемым для общества развитие ИИ-технологий поддержки авторитарного режима, даже если это способствует сохранению социальной стабильности (напр. технологии социальных рейтингов). Будет ли AGI наследовать этику его создателей? Какая это будет этика? Насколько вообще реалистично, что этика разработчика определит этику ИИ? Можно ли заложить этические ценности и нормы в модель ИИ? А можно ли еще и гарантировать, что он их будет выполнять? Или как с человеком — можно только научить а потом надеяться?))) Источник: www.youtube.com Комментарии: |
|