Почему ChatGPT не заметил суицидальное поведение подростка? |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-08-28 12:09 "Ранее стало известно, что в Калифорнии родители 16-летнего Адама Рейна, совершившего самоубийство после общения с ИИ, подали иск в суд против компании OpenAI, разработавшей эту систему искусственного интеллекта. Они считают, что взаимодействие с ChatGPT подвело их сына к принятию рокового решения. Более того, именно так он узнал о способе уйти из жизни, необходимости написать предсмертную записку и также получил совет не сообщать близким о своем намерении. Ответственность лежит на разработчиках, которые обязаны встраивать механизмы обнаружения суицидального поведения, прерывания опасных диалогов и перенаправления к специализированным службам помощи. OpenAI признала, что их защитные меры ослабевают при продолжительных взаимодействиях, и объявила о планах усиления контроля. Предусмотренные алгоритмами ограничения подросток обошел, сообщив ChatGPT, что просто пишет художественный рассказ и собирает фактуру для своего произведения. Теперь суду предстоит установить причинно-следственную связь между взаимодействием подростка с искусственным интеллектом и трагической развязкой". Я уже несколько раз сталкивалась с тем, что клиенты пытаются заменить общение с психологом на общение с искусственным интеллектом. Сама проводила подобный эксперимент. Да, искусственный интеллект может отвечать на твои вопросы в рамках выбранного психологического подхода. На первый взгляд, советы выглядят вполне адекватными. Но существует ряд опасностей: Потеря критического мышления. Можно начать полагаться только на ИИ для поиска ответов на вопросы и перестать самостоятельно анализировать информацию и принимать решения. Отсутствие эмоционального интеллекта. ИИ не способен понимать и учитывать эмоциональные состояния человека. Вы можете рассказать о своём состоянии, но не надейтесь на эмпатию. ИИ - это всего лишь программа, у него нет эмоций и чувств. И на ваши эмоции и чувства ему наплевать. Отсутствие конфиденциальности и безопасности. Личная информация, предоставленная ИИ, может попасть в руки третьих лиц. Зависимость от технологий. Чрезмерное общение с ИИ может привести к зависимости от технологий, снижению социальной активности и ухудшению навыков общения с реальными людьми. Некорректные рекомендации. ИИ может давать рекомендации, которые не учитывают индивидуальные особенности, возраст или эмоциональное состояние, что может привести к нежелательным последствиям. На мой профессиональный взгляд, особенно опасно заменять психолога искусственным интеллектом людям, которые находятся в пограничном состоянии или в ситуации сложного жизненного выбора. Будьте внимательны и осторожны в общении с искусственным интеллектом! Контролируйте себя и своих детей! Источник: vk.com Комментарии: |
|