Что такое этика искусственного интеллекта?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2021-01-25 22:23

Философия ИИ

Главная особенность систем ИИ — способность самостоятельно принимать решения и давать подсказки человеку. Но стоит ли доверять этим решениям и насколько этично передавать машине функции человека? Рассмотрим, что такое этика ИИ и какие системы можно назвать заслуживающими доверия.

В 2019 году группа экспертов по ИИ представила «Руководящие принципы этики для заслуживающего доверия искусственного интеллекта». По этим принципам и принято определять этичность ИИ в том или ином случае. Вот они: 

У человека должен быть выбор не подвергаться автоматизированному решению. Мы ежедневно сталкиваемся с тем, что системы ИИ предлагают нам контент и рекламу, а это, по результатам многочисленных исследований, сильно влияет на наши решения. Надзор означает, что ни одна система ИИ не может работать без контроля человека и основные решения все-таки должны принимать люди. 

ИИ должен вести себя надежно и безопасно, не подвергать никого риску и не наносить ущерб. Например, злоумышленник может закрасить знак «стоп» и беспилотный автомобиль попадет в аварию. ИИ должен уметь распознавать такие ситуации и действовать безопасно. 

Системы ИИ должны гарантировать конфиденциальность и защиту данных. Умные колонки и другие гаджеты могут получать доступ к голосовым данным пользователей, что приходится по вкусу далеко не всем. 

Системы ИИ не должны восприниматься пользователями как люди. К примеру, Google запустила сервис Google Duplex, который помогал людям бронировать столики в ресторанах и вводил людей в заблуждение — пользователи думали, что общаются с человеком. После многочисленных жалоб Google представила сервис как цифрового помощника.

Службы ИИ обучаются на основе собранной у пользователей информации, и часто эти данные отражают предвзятость к определённым группам населения по религиозным, расовым, гендерным и другим признакам. Системы ИИ должны исключать подобную предвзятость.

Системы ИИ не должны оказывать негативного влияния на социальную среду. Например, алгоритм ленты новостей Facebook на данный момент формирует ленту так, чтобы пользователи видели больше новостей от друзей и меньше от компаний. Это формирует социальные связи. 

Также опасения вызывает использование огромного количества энергии, нужного для работы гаджетов и систем ИИ. Здесь решением должно стать меньшее потребление энергии и использование альтернативных источников энергии.

Многие страны сейчас начинают предъявлять требования к производителям систем ИИ. Они требуют, чтобы компании создавали свои системы ИИ в соответствии с этическими принципами и отчитывались об их действиях. А алгоритмы и механизмы работы ИИ должны быть открытыми.


Источник: vk.com

Комментарии: