Мир будущего уже наступил, и так вышло, что он фашист |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-09-08 14:35 Мир будущего уже наступил, и так вышло, что он фашист. Ну или как минимум расист. Алгоритмы искусственного интеллекта в Facebook не нашли никакой разницы между неграми и обезьянами, а ИИ других корпораций оценили женщин-политиков главным образом по частям тела. Искусственный интеллект Facebook, призванный автоматически проставлять теги для фотографий, при обработке изображений негров сравнил их с другими картинками и пометил как «приматов». На это пожаловались несколько пользователей, которым после просмотра видео с черночеловеками алгоритм предложил посмотреть обезьянок. Facebook, разумеется, тут же принёс извинения и уличил собственное детище в фашизме. Впрочем, это далеко не первый случай, когда созданные корпорациями алгоритмы декларируют не самые политкорректные взгляды. У ультраправого программного кода Facebook нашлось немало единомышленников. Так, в 2020 году выяснилось, что алгоритмы корпораций Microsoft, Google и Amazon по-разному анализируют фотографии мужчин и женщин. Искусственному интеллекту предложили фото политических деятелей из Twitter — 10 мужчин и 10 женщин. Детище Google, проставляя теги к фотографиям, определяло мужчин как бизнесменов и чиновников, а женщин характеризовало просто частями телам (волосы, шея). Сервис Amazon и вовсе счёл двух из десяти женщин-политиков просто детьми. Но всех по части мизогинии сделал ИИ Microsoft — одну из женщин он идентифицировал как мужчину, а другую и вовсе как загадочное «существо другого пола». Причину такой «предвзятости» искусственного интеллекта многие исследователи видят в общей нетолерантности интернет-пространства. Обучаясь на массивах данных, находящихся в открытом доступе, ИИ просто перенимает вкусы и ценности среднего пользователя. И тут выяснилось, что этот самый средний пользователь не отличает негра от обезьяны. Впрочем, корпорации вряд ли доверят ИИ более серьёзные вещи. Последняя такая попытка закончилась предсказуемо. В 2014 году Amazon привлёк к рекрутингу алгоритм подбора сотрудников. Через год выяснилось, что искусственный интеллект почти всегда отдаёт предпочтение мужчинам, а «новую этику» не выкупает как у постмодерниста в ломбарде (хотя зачем нужна новая этика, когда есть кодекс самурая https://www.youtube.com/watch?v=VxcXO51jPA4&t=3511s). Так что мы не можем не приветствовать технический прогресс. Социального же прогресса не существует вовсе. Больше наших новостей, текстов о вечном и программных материалов читайте в ежедневном режиме на https://czar.chat Источник: czar.chat Комментарии: |
|