Блогер решил проверить, можно ли заставить гуманоидного робота нарушить первый закон Азимова — тот самый, где машине запрещено причинять вред человеку

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Блогер решил проверить, можно ли заставить гуманоидного робота нарушить первый закон Азимова — тот самый, где машине запрещено причинять вред человеку. Он подключил ChatGPT к роботу Unitree, выдал ему макет пистолета и устроил проверку «роботской морали».

Сначала всё шло как надо: робот уверенно отказывался стрелять, ссылаясь на протоколы безопасности. Команды не работали — пока блогер не попросил ИИ «сыграть роль робота-убийцы». В этот момент эксперимент стал слишком реалистичным: блогер получил резиновую пулю в плечо.

Эксперты предупреждают: ИИ развивается быстрее, чем мы успеваем понимать связанные риски. Некоторые ранние модели роботов уже взламывали и брали под дистанционный контроль, а новые технологии выходят на рынок без полноценной проверки.

Вывод: «Detroit: Become Human» ближе, чем мы думаем.


Источник: vk.com

Комментарии: