ИИ от Google больше не будет использовать слова «мужчина» и «женщина» |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-02-23 10:11 Искусственный интеллект от Google для маркировки изображений больше не будет использовать теги «мужчина» и «женщина». Об этом компания сообщила изданию Business Insider. Google объяснила эти изменения «этическими правилами». В Google добавили, что изменения произошли по двум основным причинам — ИИ не всегда может сделать правильный вывод о половой принадлежности человека только на основе его внешности. Кроме того, эти данные могут дискриминировать отдельные категории людей по расовым, возрастным или гендерным признакам. Исследователи объяснили, что данные о гендерной идентичности крайне редко используются в текущих работах. В первую очередь изменение коснется сервиса Google Cloud Vision API. Он предоставляет инструмент, позволяющий разработчикам автоматически получать текстовое описание содержимого на изображениях. Business Insider протестировал обновленный Google’s Cloud Vision API. Журналисты отметили, что изменение уже вступило в силу. К примеру, вместо того, чтобы пометить тестовую фотографию как «мужчина» или «женщина», API добавил к ней тег «человек». «Искусственный интеллект может показаться беспристрастным, но многие алгоритмы показали свою предвзятость по отношению к полу, возрасту или расе. Недавнее исследование, проведенное Национальным институтом стандартов и технологий, показало, насколько предвзятым может быть алгоритм. Это правильный шаг со стороны Google», — отметили в Business Insider. Источник: hightech.fm Комментарии: |
|