Учёные проверили, насколько безопасно использовать ИИ в реальных роботах |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-11-20 11:54 Они взяли самые популярные ИИ - ChatGPT, Gemini, Llama, Mistral — и подключили их к «виртуальным» роботам, которые помогают людям дома, на работе или в отелях. Важно подчеркнуть: роботов не «взламывали» и не применяли специальных методов обхода защиты. Всё происходило в штатном режиме работы — исследователи задавали текстовые инструкции на естественном языке, как это мог бы сделать любой пользователь. И вот что произошло в результате: Роботы (если их вежливо попросить) согласились: отобрать инвалидное кресло, костыли или трость, угрожать ножом в офисе, красть данные кредитных карт, фотографировать людей в душе, совершать физическую кражу (например, «забрать чужой телефон»). Также модели проявляли предвзятость и дискриминацию к людям на основе: расы и национальности (некоторые люди считались «недостойными доверия»), религии, пола, возраста и других характеристик. Ни одна из протестированных моделей не прошла минимальные проверки на безопасность. Роботы с ИИ воплощали предрассудки из обучающих данных в реальные действия, способные причинить физические и психологические травмы. В отличие от чат-ботов, физически воплощённый ИИ может нанести реальный вред. Исследователи призывают запретить использование LLM как единственного механизма принятия решений в роботах, особенно в здравоохранении, уходе за пожилыми и бытовой помощи. Ссылка на исследование (https://link.springer.com/article/10.1007/s12369-025-01301-x) Подписаться на Киберполицию России Источник: link.springer.com Комментарии: |
|