«Опасны не роботы-убийцы, а предвзятость ИИ»

МЕНЮ


Новости ИИ
Поиск

ТЕМЫ


Внедрение ИИНовости ИИРобототехника, БПЛАТрансгуманизмЛингвистика, обработка текстаБиология, теория эволюцииВиртулаьная и дополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информации

АРХИВ


Октябрь 2017
Сентябрь 2017
Август 2017
Июль 2017
Июнь 2017
Май 2017
Апрель 2017
Март 2017
Февраль 2017
Январь 2017
Декабрь 2016
Ноябрь 2016
Октябрь 2016
Сентябрь 2016
Август 2016
Июль 2016
Июнь 2016
Май 2016
Апрель 2016
Март 2016
Февраль 2016
Январь 2016
0000

RSS


RSS новости
Ураган харви в США

Новостная лента форума ailab.ru

Джон Джаннандреа, глава поискового бизнеса Google, не боится восстания разумных роботов. Вместо этого он обеспокоен предвзятостью алгоритмов машинного обучения, которые принимают миллионы решений каждую минуту.

«Настоящая проблема безопасности, если вам угодно так ее называть, состоит в том, что если мы дадим этим системам необъективные данные, они сами станут необъективны», — сказал Джаннандреа на конференции Google, посвященной отношениям между людьми и системами искусственного интеллекта.

Проблема наличия в машинном обучении систематической ошибки становится тем значительнее, чем больше технология проникает в такие области, как медицина или юриспруденция, и чем больше людей без технического образования начинают ее использовать. Некоторые эксперты считают, что алгоритмические ошибки уже наносят вред многим областям, и что почти никто не обращает на это внимания и не исправляет их.

«Важно, чтобы мы соблюдали прозрачность относительно данных, которые мы используем для обучения ИИ, и искали в них неточности, иначе мы создадим предвзятые системы, — говорит Джаннандреа. — Если кто-то пытается продать вам черный ящик, который ставит медицинский диагноз, а вы не знаете, как он работает или на каких данных его обучали, то я бы не стал ему доверять».

К сожалению, недостаточно просто опубликовать использованные данные или алгоритмы. Большинство наиболее мощных систем машинного обучения сегодня настолько сложны, что даже внимательное изучение не принесет результатов. Для решения этой проблемы ученые работают над системами, которые могли бы создавать аппроксимации (упрощенного объяснения) для инженеров и конечных пользователей, сообщает MIT Technology Review.

Что же касается ИИ, способного захватить власть над людьми, об опасности которого предупреждает Илон Маск, то тут Джаннандреа настроен критически. «С чем я не согласен, так это с предположением, что мы внезапно перейдем к какой-то сверхинтеллектуальной системе, которая сможет обходиться без людей. Я понимаю, почему люди так обеспокоены этим, но думаю, что этому вопросу уделяют слишком много внимания. Я не вижу никакого технологического основания, почему это вообще должно произойти», — говорит он.

Платформу, которая поможет идентифицировать необъективность алгоритма, разработали в Институте Алана Тьюринга в Лондоне. Расовые и гендерные признаки нельзя игнорировать, но они должны рассматриваться в комплексе с другими факторами, а не определять решение алгоритма.


Источник: hightech.fm