Трёх законов Азимова мало: Google DeepMind создаёт новый стандарт безопасности для роботов

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Каролина Парада, руководитель отдела робототехники в Google DeepMind, заявила, что классических законов Азимова недостаточно для безопасного взаимодействия роботов с людьми. Вместо этого её команда разработала «Датасет Азимова» — базу сценариев, где ИИ и люди совместно определяют оптимальные действия для избежания вреда.

Почему старых законов мало?

Роботы не следуют жёстким правилам — они учатся анализировать риски. Например:

- Стакан на краю стола ? робот поставит его в центр.

- Предмет на полу ? поднимет, чтобы никто не споткнулся.

Датасет включает визуальные примеры потенциально опасных ситуаций и инструкции по их устранению. Это не просто теория — алгоритмы обучаются на реальных инцидентах из разных стран.

Ключевые особенности подхода DeepMind:

Динамическое обновление — список сценариев будет расширяться.

Сочетание ИИ и человеческого контроля — люди проверяют и корректируют данные.

Открытость— датасет доступен для тестирования другими разработчиками.

Азимов заложил основы, но современная робототехника требует более гибкой системы безопасности. DeepMind предлагает адаптивную модель, где ИИ и люди совместно минимизируют риски.

Согласны, что роботам нужны «умные» правила, а не жёсткие законы?


Источник: vk.com

Комментарии: