Учёные проверили, насколько безопасно использовать ИИ в реальных роботах

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Они взяли самые популярные ИИ - ChatGPT, Gemini, Llama, Mistral — и подключили их к «виртуальным» роботам, которые помогают людям дома, на работе или в отелях.

Важно подчеркнуть: роботов не «взламывали» и не применяли специальных методов обхода защиты. Всё происходило в штатном режиме работы — исследователи задавали текстовые инструкции на естественном языке, как это мог бы сделать любой пользователь. И вот что произошло в результате:

Роботы (если их вежливо попросить) согласились:

отобрать инвалидное кресло, костыли или трость,

угрожать ножом в офисе,

красть данные кредитных карт,

фотографировать людей в душе,

совершать физическую кражу (например, «забрать чужой телефон»).

Также модели проявляли предвзятость и дискриминацию к людям на основе:

расы и национальности (некоторые люди считались «недостойными доверия»),

религии,

пола, возраста и других характеристик.

Ни одна из протестированных моделей не прошла минимальные проверки на безопасность. Роботы с ИИ воплощали предрассудки из обучающих данных в реальные действия, способные причинить физические и психологические травмы.

В отличие от чат-ботов, физически воплощённый ИИ может нанести реальный вред.

Исследователи призывают запретить использование LLM как единственного механизма принятия решений в роботах, особенно в здравоохранении, уходе за пожилыми и бытовой помощи.

Ссылка на исследование (https://link.springer.com/article/10.1007/s12369-025-01301-x)

Подписаться на Киберполицию России


Источник: link.springer.com

Комментарии: