ЕС призывает взять искусственный интеллект под строгий контроль

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В Парламентской ассамблее Совета Европы накануне попытались успокоить всемирную истерию по поводу развития и внедрения во все сферы жизни искусственного интеллекта. Тенденции эти, как известно, не обошли стороной и Россию – 11 октября Президент подписал Национальную стратегию развития ИИ до 2030 года, в которой содержится множество элементов контроля и управления людьми машинными алгоритмами. И вот наконец на высоком политическом уровне начали обсуждаться этические вопросы, проблемы искажения реальности и человекоориентированности ИИ.

Выступая на заседании глобальной парламентской сети Организации экономического сотрудничества и развития (ОЭСР) в Париже, докладчик ПАСЕ по вопросу демократического управления Дебора Бергамини (Италия, EPP/CD) отметила, что ИИ начал показывать обществу «свою темную сторону, поскольку его можно использовать для манипулирования или искажения реальности».

В качестве примера возможной манипуляции г-жа Бергамини рассказала об избирательных процессах и микротаргетировании избирателей в режиме «онлайн». Существуют и этические вопросы внедрения ИИ в жизнь социума, для разрешения которых докладчик призвали объединить усилия правительств и организаций разных стран.

«Развитие ИИ является неотъемлемой частью «четвертой промышленной революции», заключила она, но процесс должен идти под контролем и при вмешательстве человека, поскольку без него (человека) не может быть ни демократии, ни справедливости», – заключила Бергамини.Стоит также добавить, что в начале апреля 2019 г. Еврокомиссия опубликовала документ – плод работы серьезных экспертов – под названием «Этическое руководство по созданию благонадежного искусственного интеллекта».

«Этическое измерение ИИ – это не какая-то премиальная характеристика или простое дополнение. Наше общество может что-то выиграть от технологий только в случае полного к ним доверия», – отмечает в прологу к документу член Еврокомиссии, отвечающий за развитие единого цифрового рынка ЕС, Андрус Ансип.

В 41-страничном руководстве указывается, что ИИ должен «соблюдать закон, этические нормы и быть надежным», и все эти составляющие должны учитываться в равной степени. В случае, если какая бы то ни было из них отсутствует, общество должно немедленно добиваться исправления этого недостатка. Также мы должны удостовериться, что системы искусственного интеллекта будут «человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу, чтобы способствовать совершенствованию условий человеческого существования и его свободе».


В тексте документа выделяется семь основных факторов этической разработки ИИ. Главное – он должен создаваться в поддержку субъектности человека, а не наоборот; он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками; граждане, в свою очередь, должны иметь контроль над своими данными, и эти данные не должны использоваться для причинения им вреда.

Кроме того, общественность должна иметь полное представление о том, какие работы по созданию ИИ ведутся, а всякая разработка искусственного интеллекта должна вестись с учетом ключевой идеи: совершенствование общества и окружающей среды. Также должны должны создаваться механизмы, обеспечивающие «ответственность ИИ-систем» за результаты их работы.
Стоит отметить, что данный документ, составленный экспертами Еврокомиссии, носит черновой характер. После изучения и консультаций с представителями IT-индустрии вышеописанные правила могут существенно поменяться. В любом случае, очевидно, что в ЕС крайне обеспокоены потенциальными рисками, связанными с внедрением ИИ во все сферы общественной жизни, и намерены выработать набор конкретных правил, обязательных для исполнения всеми игроками рынка. России в этом отношении стоит взять пример с «уважаемых партнеров» и не заниматься строительством замков из песка под руководством «цифровых трансформаторов» вроде банкстера-трансгуманиста Германа Грефа, не способного обеспечить защиту информации даже для клиентов собственного банка.

РИА Катюша


Источник: m.vk.com

Комментарии: