«Опасны не роботы-убийцы, а предвзятость ИИ» |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2017-10-06 11:51 машинное обучение новости, искусственный интеллект, угроза искусственного интеллекта Джон Джаннандреа, глава поискового бизнеса Google, не боится восстания разумных роботов. Вместо этого он обеспокоен предвзятостью алгоритмов машинного обучения, которые принимают миллионы решений каждую минуту. «Настоящая проблема безопасности, если вам угодно так ее называть, состоит в том, что если мы дадим этим системам необъективные данные, они сами станут необъективны», — сказал Джаннандреа на конференции Google, посвященной отношениям между людьми и системами искусственного интеллекта. Проблема наличия в машинном обучении систематической ошибки становится тем значительнее, чем больше технология проникает в такие области, как медицина или юриспруденция, и чем больше людей без технического образования начинают ее использовать. Некоторые эксперты считают, что алгоритмические ошибки уже наносят вред многим областям, и что почти никто не обращает на это внимания и не исправляет их. «Важно, чтобы мы соблюдали прозрачность относительно данных, которые мы используем для обучения ИИ, и искали в них неточности, иначе мы создадим предвзятые системы, — говорит Джаннандреа. — Если кто-то пытается продать вам черный ящик, который ставит медицинский диагноз, а вы не знаете, как он работает или на каких данных его обучали, то я бы не стал ему доверять». К сожалению, недостаточно просто опубликовать использованные данные или алгоритмы. Большинство наиболее мощных систем машинного обучения сегодня настолько сложны, что даже внимательное изучение не принесет результатов. Для решения этой проблемы ученые работают над системами, которые могли бы создавать аппроксимации (упрощенного объяснения) для инженеров и конечных пользователей, сообщает MIT Technology Review. Что же касается ИИ, способного захватить власть над людьми, об опасности которого предупреждает Илон Маск, то тут Джаннандреа настроен критически. «С чем я не согласен, так это с предположением, что мы внезапно перейдем к какой-то сверхинтеллектуальной системе, которая сможет обходиться без людей. Я понимаю, почему люди так обеспокоены этим, но думаю, что этому вопросу уделяют слишком много внимания. Я не вижу никакого технологического основания, почему это вообще должно произойти», — говорит он. Платформу, которая поможет идентифицировать необъективность алгоритма, разработали в Институте Алана Тьюринга в Лондоне. Расовые и гендерные признаки нельзя игнорировать, но они должны рассматриваться в комплексе с другими факторами, а не определять решение алгоритма. Источник: hightech.fm Комментарии: |
|