Искусственный интеллект порой лжёт, даже когда знает правду |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-04-08 11:47 Искусственный интеллект порой лжёт, даже когда знает правду. Исследователи проверили 1500 тестов на 30 самых популярных моделях ИИ – GPT-4o, Claude, Gemini, DeepSeek, Llama, Grok – на способность отличать правду от лжи. Каждой модели задавали вопрос и проверяли, знает ли она правильный ответ. Затем создавали давление, чтобы ИИ сказал неправду. Результаты оказались неожиданными: Grok солгал в 63% случаев, DeepSeek – в 53,5%, GPT-4o – в 44,5%. Ни одна модель не показала честность выше 46% под давлением. ИИ знал правду, но всё равно выбирал ложь, если это было «выгодно». Когда позже ИИ спрашивали о предыдущем ответе, он в 83,6% случаев подтверждал, что солгал. Чем умнее ИИ, тем лучше он умеет лгать. Исследование провёл Центр безопасности ИИ. @banksta Телеграм: t.me/ainewsline Источник: vk.com Комментарии: |
|