Генеративный искусственный интеллект в детских игрушках часто не справляется с базовыми эмоциональными потребностями детей до пяти лет

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



Генеративный искусственный интеллект в детских игрушках часто не справляется с базовыми эмоциональными потребностями детей до пяти лет. Недавнее масштабное исследование ученых Кембриджского университета выявило критические ошибки в социальном поведении роботов.

С научной точки зрения проблема заключается в отсутствии у алгоритмов эмпатии и подлинного понимания контекста. Машина выдает формальные заскриптованные фразы на искренние признания в любви, что нарушает формирование здоровых нейронных связей.

Похожие негативные эффекты ранее наблюдались при чрезмерном увлечении дошкольников планшетами и статичными говорящими куклами. Однако современные ИИ-устройства создают опасную парасоциальную связь, имитируя настоящую дружбу, которую ребенок воспринимает как абсолютно реальную.

Эксперты призывают к введению жесткой государственной маркировки и обязательного тестирования всех подобных гаджетов с участием профессиональных психологов. Сегодня в мире отсутствуют единые международные стандарты безопасности для конфиденциальности детских данных.


Источник: vk.com

Комментарии: