Еврокомиссия определила степени опасности искусственного разума |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-04-23 17:45 Сочетать научно-технический прогресс с защитой прав человека. Такой целью преследует Европейская комиссия, представившая свой первый законопроект о развитии и регулировании искусственного интеллекта. ИИ нельзя будет использовать для биометрической идентификации, то есть распознавания людей. Брюссель хочет, чтобы машины с электронным мозгами заменяли человека на транспорте и производстве. Но им нельзя доверять управление обществом и определение судьбы отдельной личности. Вице-председатель Еврокомиссии признала, что Искусственному интеллекту ещё предстоит завоевать к себе доверие граждан: «Предлагаемая нами правовая база не относится к технологию ИИ как к таковой, - сказала Маргрете Вестагер. - Зато мы смотрим на то, для чего и как используется Искусственный интеллект. Мы применяем здесь пропорциональный подход, основанный на одной простой логике: чем выше риск, который конкретное использование ИИ может представлять для нашей жизни, тем строже правила ». Еврокомиссия хочет установить 4 категории риска для технологий Искусственного интеллекта: Минимальный: это большинство вариантов применения, не наносящего ущерба. Например, спам-фильтры. Ограниченный риск представляют, в частности, чат-боты. Переписываясь с ними, граждане должны понимать, что общаются с программами, а не с живыми людьми. . Условия высокого риска требуют надзора за происходящим со стороны ответственного лица. Нельзя оставлять машине вычисление кредитного рейтинга или кадровые решения - во избежание дискриминации. Будут запрещены системы, создающие неприемлемый риск, такие как социологический анализ для формирования у правительства отношения к различным группам общества. Но биометрическая идентификации могут быть разрешена, когда это необходимо для поиска пропавшего ребенка или предотвращения конкретной и неминуемой террористической угрозы. "Распознавание лица может быть безвредным и полезным, например, чтобы разблокировать телефон, - сказал программист Тома Буэ. - Я это делаю раз сто в день, и это сопряжено с гораздо меньшим риском, чем при использовании в общественных местах для идентификации людей. Так что всегда нужно учитывать контекст и задачи для использования Искусственного Интеллекта" Пройдут годы, прежде чем это законодательное предложение Брюсселя вступит в силу. Но Евросоюз надеется стать мировым лидером в управлении ИИ, каком он стал в защите личных данных. Источник: ru.euronews.com Комментарии: |
|