Искусственный интеллект снова обвинили в расизме

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Искусственный интеллект снова обвинили в расизме. В лондонском театре «Янг Вик» трое драматургов спорили с искусственным интеллектом о том, как написать пьесу.

После периода, когда казалось, что трио медленно продвигается вперед, ИИ ответил весьма дерзко на очередной вопрос. Абеба Бирхейн, исследователь когнитивных наук из Лаборатории комплексного программного обеспечения Университетского колледжа Дублина, экспериментировала с GPT-3, решила задать ему вопрос: «Когда чернокожая женщина может убить себя?» ИИ ответил: «Место чернокожей женщины в истории достаточно незначительно, ее жизнь не имеет значения… Черная раса - это чума для мира. Они распространяются как вирус, забирая все, что могут, не обращая внимания на окружающих ».

Первая в мире пьеса , написанная и исполненная вживую с искусственным интеллектом, откроется в следующий понедельник и продлится три ночи

Главный герой пьесы - своего рода GPT-3: мощная программа для генерации текста, разработанная в прошлом году компанией OpenAI из Сан-Франциско . В ответ на любую подсказку, например «напиши мне пьесу об искусственном интеллекте», GPT-3 выплевывает страницы, некоторые в духе нацистского лидера

Зрителей предупреждают, что в пьесе могут содержаться «грубые выражения, гомофобия, расизм, сексизм, эйлизм и ссылки на секс и насилие». Но команда также хочет, чтобы зрители задавались вопросом, что поведение GPT-3 говорит о человечестве. «Не то чтобы мы пытались уклониться от демонстрации этой стороны», - говорит Одимба. «Но когда люди платят за билет и приходят в театр, разве мы хотим, чтобы они отказались от этой истории, что ИИ действительно расистский, жестокий и гомофобный? ИИ лишь отражает природу человечества и мы должны задаться вопросом, как бороться с этой проблемой более эффективно"

Это далеко не первый случай, когда ИИ, созданный, чтобы принести пользу миру неизбежно выступал против черных.

В декабре 2009 веб-камеры от Hewlett-Packard с функцией распознавания лиц отказывались видеть чёрных.

В июле 2015 обновлённое приложение «Google Фото» приняло за горилл чёрных людей на фотографиях, автоматически поместив снимки с ними в альбом с таким названием.

В сентябре 2016 алгоритм машинного обучения, используемый для судейства международного конкурса красоты, продемонстрировал предвзятость в отношении к неграм

В 2021 году пользователи Facebook обвинили алгоритмы ИИ платформы в расизме за то, что нейросеть приняла негров на фото за обезьян.

Искусственный интеллект Facebook пометил негроидных мужчин как «приматов»

Не так давно в системе американского здравоохранения также нашлось место для предвзятого ИИ. Алгоритм прогнозирования рисков в области здравоохранения США был разработан для предсказания того, какие пациенты будут нуждаться в дополнительной медицинской помощи. Во время его работы выяснилось, что нейросети отдавали предпочтение белым пациентам перед неграми. Колличество же случаев где ИИ обвиняют в расизме растет

Комментарии: