«Искусственному интеллекту срочно нужен регулятор»

МЕНЮ


Новости ИИ
Поиск

ТЕМЫ


Внедрение ИИНовости ИИРобототехника, БПЛАТрансгуманизмЛингвистика, обработка текстаБиология, теория эволюцииВиртулаьная и дополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информации

АРХИВ


Сентябрь 2017
Август 2017
Июль 2017
Июнь 2017
Май 2017
Апрель 2017
Март 2017
Февраль 2017
Январь 2017
Декабрь 2016
Ноябрь 2016
Октябрь 2016
Сентябрь 2016
Август 2016
Июль 2016
Июнь 2016
Май 2016
Апрель 2016
Март 2016
Февраль 2016
Январь 2016
0000

RSS


RSS новости
Ураган харви в США

Новостная лента форума ailab.ru

2017-09-19 15:46

опасность ИИ

Ученые все чаще стали применять искусственный интеллект для социальных экспериментов, однако отсутствие этического кодекса в этой сфере часто приводит к печальным последствиям. Критерии оценки таких исследований устарели, а работа с большими данными в принципе не урегулирована в большинстве стран. Корреспондент WIRED София Чен уверена, что без нового регулятора в сфере ИИ никак не обойтись.

В сентябре исследователи из Стэнфордского университета показали, как нейросеть можно научить отличать гетеросексуалов от гомосексуалов по фото. Для тренировки алгоритма ученые использовали тысячи фотографий с сайтов знакомств. Своим исследованием эксперты хотели показать, какие риски несут современные технологии. По мнению Чен, ученые создали «бомбу, чтобы предупредить людей об опасности бомб».

Инициативу стэнфордских исследователей восприняли совсем не так, как они рассчитывали. ЛГБТ-группы обрушились на них с критикой, ученым на почту стали приходить угрозы, а их разработку прозвали «ИИ-френологией». В результате Американская ассоциация психологов начала проверку исследования на предмет нарушения этики.

Этот случай доказывает необходимость создания этического регулятора в области научных исследований, считает Чен. Особенно это касается социальных наук, нормы регулирования которых устарели и стали далекими от реальности. Если ученые получают финансирование от государства и хотят провести исследование с участием людей, они должны получить одобрение от комитетов по этике, существующих во всех вузах страны. Однако комитеты придерживаются правил, установленных еще 40 лет назад. В первую очередь они направлены на защиту реальных людей, а в случае с базами данных регуляторы на многое закрывают глаза. Именно поэтому проект стэнфордских ученых по опознанию гомосексуалов по фото и получил одобрение этического комитета этого университета.

При работе с большими данными нормы регулирования до сих пор не проработаны. Из-за этого многим исследователям приходится самим устанавливать себе этические ограничения. Но и такая практика может привести к плохим последствиям.

В августе группа ученых совместно с крупными ИТ-компаниями выпустила приложение NamePrism, которое определяет этническую принадлежность по имени с точностью 80%. Данные для исследования собирали из открытых источников в интернете, поэтому получать одобрение комитетов по этике ученым не пришлось.

Разработчики алгоритма постарались учесть возможные последствия и самостоятельно установили ограничения. Так, через NamePrism нельзя пропускать более 1000 имен в час. Для крупномасштабных исследований с использованием программы нужно получать разрешение от ученых, причем частным компаниям создатели программы намерены отказывать.

Эксперт по этике Джейк Меткалф из организации Data & Society считает, что регуляторы недооценивают риски социальных исследований с использованием ИИ. «Это не Скайнет и не Терминатор, так что кажется несерьезным», — говорит он.

О необходимости этического кодекса для исследований с помощью ИИ и разработок самих алгоритмов по аналогии с врачебным и юридическим кодексами эксперты говорят давно. Некоторые предлагают вводить гуманитарные предметы для специалистов по компьютерным технологиям еще на стадии обучения, а также привлекать гуманитариев к процессу разработки нейросетей.

Недавно Apple опубликовала вакансию разработчика голосового помощника Siri с навыками психолога. В объявлении компания отметила, что к Siri часто обращаются за моральной поддержкой, поэтому важно учитывать психологические особенности пользователей при разработке.


Источник: hightech.fm