Мир будущего уже наступил, и так вышло, что он фашист

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Мир будущего уже наступил, и так вышло, что он фашист. Ну или как минимум расист. Алгоритмы искусственного интеллекта в Facebook не нашли никакой разницы между неграми и обезьянами, а ИИ других корпораций оценили женщин-политиков главным образом по частям тела.

Искусственный интеллект Facebook, призванный автоматически проставлять теги для фотографий, при обработке изображений негров сравнил их с другими картинками и пометил как «приматов». На это пожаловались несколько пользователей, которым после просмотра видео с черночеловеками алгоритм предложил посмотреть обезьянок. Facebook, разумеется, тут же принёс извинения и уличил собственное детище в фашизме. Впрочем, это далеко не первый случай, когда созданные корпорациями алгоритмы декларируют не самые политкорректные взгляды.

У ультраправого программного кода Facebook нашлось немало единомышленников. Так, в 2020 году выяснилось, что алгоритмы корпораций Microsoft, Google и Amazon по-разному анализируют фотографии мужчин и женщин. Искусственному интеллекту предложили фото политических деятелей из Twitter — 10 мужчин и 10 женщин. Детище Google, проставляя теги к фотографиям, определяло мужчин как бизнесменов и чиновников, а женщин характеризовало просто частями телам (волосы, шея). Сервис Amazon и вовсе счёл двух из десяти женщин-политиков просто детьми. Но всех по части мизогинии сделал ИИ Microsoft — одну из женщин он идентифицировал как мужчину, а другую и вовсе как загадочное «существо другого пола».

Причину такой «предвзятости» искусственного интеллекта многие исследователи видят в общей нетолерантности интернет-пространства. Обучаясь на массивах данных, находящихся в открытом доступе, ИИ просто перенимает вкусы и ценности среднего пользователя. И тут выяснилось, что этот самый средний пользователь не отличает негра от обезьяны.

Впрочем, корпорации вряд ли доверят ИИ более серьёзные вещи. Последняя такая попытка закончилась предсказуемо. В 2014 году Amazon привлёк к рекрутингу алгоритм подбора сотрудников. Через год выяснилось, что искусственный интеллект почти всегда отдаёт предпочтение мужчинам, а «новую этику» не выкупает как у постмодерниста в ломбарде (хотя зачем нужна новая этика, когда есть кодекс самурая https://www.youtube.com/watch?v=VxcXO51jPA4&t=3511s).

Так что мы не можем не приветствовать технический прогресс. Социального же прогресса не существует вовсе.

Больше наших новостей, текстов о вечном и программных материалов читайте в ежедневном режиме на https://czar.chat


Источник: czar.chat

Комментарии: