Этичный и объяснимый ИИ? - Сергей Карелов, Константин Воронцов и Игорь Пивоваров — Семинар AGI

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2022-08-12 20:02

ИИ теория

Этичный и объяснимый ИИ — это пустая болтовня или реальная проблема современной разработки ИИ?
Сергей Карелов, Константин Воронцов  и Игорь Пивоваров
Семинар русскоязычного сообщества AGI
11 августа 2022
 
Похоже, что этика может стать самым ключевым вопросом ИИ ближайшего будущего. В первую очередь потому, что между двумя глобальными странами-лидерами разработки ИИ — США и Китаем -имеются огромные противоречия, обусловленные в первую очередь разными системами ценностей:

•  Для США – это индивидуальная протестантская трудовая этика, делающая акцент на ответственности и правах личности и потому всячески противящаяся любым использованиям ИИ, грозящих нарушением прав человека и размыванию границ его ответственности.

•  А для Китая – это лежащая в основе стратегии развития Китая конфуцианская этика, делающая акцент не на личности, а на обществе, и в результате этого готовая смирится с нарушением прав отдельных людей, осуществляемых на пользу обществу.

Столь разные этические системы США и Китая ведут к во многом противоположным видениям “Good AI Society”:

•  Китайское видение – это гармонизация прорывных последствий развития ИИ в целях сохранения социальной стабильности и поддержки авторитарного руководства страны.

•  Видение же США делает неприемлемым для общества развитие ИИ-технологий поддержки авторитарного режима, даже если это способствует сохранению социальной стабильности (напр. технологии социальных рейтингов).

Будет ли AGI наследовать этику его создателей? Какая это будет этика? Насколько вообще реалистично, что этика разработчика определит этику ИИ?

Можно ли заложить этические ценности и нормы в модель ИИ? А можно ли еще и гарантировать, что он их будет выполнять? Или как с человеком — можно только научить а потом надеяться?)))


Источник: www.youtube.com

Комментарии: