Этические кодексы в сфере ИИ должны начинаться с прав человека |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-10-24 11:49 Развитие ИИ волнует IT-отрасль: и гиганты индустрии, и правительства пытаются направить процесс в нужное русло путем создания этических кодексов и комиссий. Однако этот путь оказался куда более тернистым, чем считалось ранее. К такому выводу пришли участники AI Now Symposium в Нью-Йорке. Недавно полицейский отдел Нью-Йорка представил обширную базу данных, собранную за последние шесть лет, содержащую имена и личные данные не менее 17 500 человек, которые, по мнению правоохранителей, могут участвовать в преступных группировках. Однако инициативу резко раскритиковали специалисты в сфере гражданских прав за низкую точность и расовую дискриминацию. Так, по словам Шеррилин Айфил, президента фонда правовой защиты NAACP, представленная база данных предвзята в отношении чернокожих и женщин, поскольку на 95% состоит из афроамериканцев, латиноамериканцев и азиатов. «Эта база данных, по сути, говорит о том, что все афроамериканцы, латиноамериканцы и азиаты — преступники, — говорит Айфил. — А теперь представьте, что ее объединили с технологией распознавания лиц и вы в нее попали». Юристы, активисты и исследователи ранее неоднократно подчеркивали, что при создании и внедрении систем ИИ разработчикам необходимо следовать неким «этическим нормам». Но кто составляет эти нормы и кто должен контролировать их соблюдение? Проблема в том, что моральные принципы не универсальны, и это научный факт: ученые MIT провели исследование, в ходе которого с помощью платформы Moral Machine попросили людей из разных стран разрешить известную проблему вагонетки в отношении беспилотных автомобилей (в ходе мысленного эксперимента участники должны были решить, кем самоуправляемой машине можно пожертвовать при ДТП, а кем — нет). В конечном счете эксперимент показал, что в разных странах и культурах существуют разные представления о морали. Есть еще одно исследование, демонстрирующее неэффективность «этических кодексов». Ученые из Университета Северной Каролины обнаружили, что чтение кодексов никак не влияет на поведение программистов. Филип Алстон из Школы права Нью-Йоркского университета, кажется, нашел решение данной проблемы: он предложил предоставить закону возможность разобраться с развитием ИИ. По его мнению, достаточно следить за тем, чтобы нейросети не нарушали права человека. «Права человека зафиксированы в Конституции. Они включены в билль о правах, они толкуются судами, — объясняет юрист. — Пока мы не введем в обсуждение развития ИИ вопрос прав человека, у нас не будет прочного основания. В то же время, ориентируясь на права человека, мы сможем отсеивать неправильный ИИ», — заключил Алстон. Источник: hightech.plus, Technology Review Источник: itc.ua Комментарии: |
|