Трёх законов Азимова мало: Google DeepMind создаёт новый стандарт безопасности для роботов |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-07-07 12:13 Каролина Парада, руководитель отдела робототехники в Google DeepMind, заявила, что классических законов Азимова недостаточно для безопасного взаимодействия роботов с людьми. Вместо этого её команда разработала «Датасет Азимова» — базу сценариев, где ИИ и люди совместно определяют оптимальные действия для избежания вреда. Почему старых законов мало? Роботы не следуют жёстким правилам — они учатся анализировать риски. Например: - Стакан на краю стола ? робот поставит его в центр. - Предмет на полу ? поднимет, чтобы никто не споткнулся. Датасет включает визуальные примеры потенциально опасных ситуаций и инструкции по их устранению. Это не просто теория — алгоритмы обучаются на реальных инцидентах из разных стран. Ключевые особенности подхода DeepMind: Динамическое обновление — список сценариев будет расширяться. Сочетание ИИ и человеческого контроля — люди проверяют и корректируют данные. Открытость— датасет доступен для тестирования другими разработчиками. Азимов заложил основы, но современная робототехника требует более гибкой системы безопасности. DeepMind предлагает адаптивную модель, где ИИ и люди совместно минимизируют риски. Согласны, что роботам нужны «умные» правила, а не жёсткие законы? Источник: vk.com Комментарии: |
|