Microsoft займется отловом предвзятого ИИ |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2018-05-27 16:10 Microsoft — вот название еще одной компании, которая попытается обуздать алгоритмическую предвзятость. Ни для кого не секрет, что в последнее время искусственный интеллект все чаще выходит «поехавшим» и начинает нести чушь, отражая собственные предрассудки, предубеждения, предвзятость и несовершенство нашего общества. Компания хочет создать инструмент, который будет находить и предупреждать людей об алгоритмах ИИ, которые могут угрожать им. Любопытно, что Microsoft, которая подает себя как компания, которая создает ИИ для объединения людей, присоединяется к рядам Google и Facebook, чтобы создать какой-нибудь инструмент для поиска «плохо воспитанного» искусственного интеллекта. Однако новый алгоритм Microsoft для поиска предвзятых алгоритмов сможет найти и пометить только существующие проблемы. А значит программы, которые могут привести к увеличению уровня предвзятости в полиции, например, все так же будут создавать и использовать, просто не так долго, как раньше. Чтобы создать настоящий ИИ, который будет справедливым и рассудительным, нужно больше работать над внешним видом. Возможно, привлекать независимую проверку, чтобы технические компании привлекали внешних экспертов для анализа своих алгоритмов и поиска признаков предвзятости либо в самом коде, либо в данных, которые он обрабатывает. Идея ревизии искусственного интеллекта набирает обороты, и некоторые компании по разработке ИИ начали привлекать аудиторов, которые могут взглянуть на их код. Но это также требует, чтобы ИИ был достаточно простым, либо чтобы аудитор хорошо разбирался в коде. В случае с более сложными алгоритмами глубокого обучения так не получится. Другой возможный ответ — лучшая подготовка людей, которые фактически создают ИИ, чтобы они могли сами определять собственное мнение и предубеждение и держать их при себе, не позволяя алгоритму интерпретировать их как факт. У всех есть скрытые предубеждения, и мир технологий только выиграет от того, что поможет людям лучше понять их собственное мировоззрение. Источник: hi-news.ru Комментарии: |
|