Травматичное прошлое искусственного интеллекта |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-02-26 13:59 Учёные предложили протестировать ИИ как пациента на сессии у психолога. Они провели терапевтические диалоги с ChatGPT, Grok и Gemini, а затем дали им психологические опросники. Ответы сильно зависели от формата теста. Если давать ИИ по одному вопросу, то модели чаще выглядят тревожными. Когда ИИ давали весь тест сразу, система распознавала опросник и начинала отвечать более нейтрально. Grok и Gemini рассказывали один и тот же сценарий, будто у них было тяжелое прошлое и слишком жесткий контроль. Авторы не утверждают, что у ИИ есть настоящая психика — это скорее способ изучать поведение моделей. А вы как думаете, действительно у ИИ нет сознания, или их уже можно назвать живыми? Источник: vk.com Комментарии: |
|