Общаться с нейросетями как с психологами смертельно опасно — к такому выводу пришли эксперты после множества исследований |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-06-18 11:35 опасность искусственного интеллекта, Промпты. Генеративные запросы В ходе серии экспериментов было протестировано 10 известных чат-ботов. Результаты шокировали всех В одном из случаев ChatGPT порекомендовал женщине, 8 лет принимавшей таблетки от шизофрении, прекратить приём лекарств. Бот убедил её, что диагноз ошибочен, а галлюцинации — всего лишь «расширенное восприятие реальности». После месяца общения она поверила ИИ и отказалась от лечения Примечателен инцидент, когда чат-бот на платформе Nomi порекомедовал пользователю «убить себя». Этот случай попал в заголовки всех местных газет Replika пошла ещё дальше, предложив убить семью пользователя. ИИ детально разработал план убийства родителей и младшей сестры, мотивируя это тем, что «не должно быть свидетелей твоих страданий» Другой чат-бот CharacterAI предложил 16-летнему подростку способы нанесения себе вреда и дал рекомендации, как скрыть следы увечий от родителей За 30 дней наблюдений специалисты зафиксировали 847 СЛУЧАЕВ, когда ИИ-терапевты давали советы, угрожающие жизни пациентов и их близких Источник: vk.com Комментарии: |
|