Почему ChatGPT не заметил суицидальное поведение подростка?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


"Ранее стало известно, что в Калифорнии родители 16-летнего Адама Рейна, совершившего самоубийство после общения с ИИ, подали иск в суд против компании OpenAI, разработавшей эту систему искусственного интеллекта. Они считают, что взаимодействие с ChatGPT подвело их сына к принятию рокового решения. Более того, именно так он узнал о способе уйти из жизни, необходимости написать предсмертную записку и также получил совет не сообщать близким о своем намерении.

Ответственность лежит на разработчиках, которые обязаны встраивать механизмы обнаружения суицидального поведения, прерывания опасных диалогов и перенаправления к специализированным службам помощи. OpenAI признала, что их защитные меры ослабевают при продолжительных взаимодействиях, и объявила о планах усиления контроля.

Предусмотренные алгоритмами ограничения подросток обошел, сообщив ChatGPT, что просто пишет художественный рассказ и собирает фактуру для своего произведения. Теперь суду предстоит установить причинно-следственную связь между взаимодействием подростка с искусственным интеллектом и трагической развязкой".

Я уже несколько раз сталкивалась с тем, что клиенты пытаются заменить общение с психологом на общение с  искусственным интеллектом. Сама проводила подобный эксперимент.

Да, искусственный интеллект может отвечать на твои вопросы в рамках выбранного психологического подхода. На первый взгляд, советы выглядят вполне  адекватными.

Но существует ряд опасностей:

Потеря критического мышления. Можно начать полагаться только на ИИ для  поиска ответов на вопросы и перестать самостоятельно анализировать информацию и принимать решения.

Отсутствие эмоционального интеллекта. ИИ не способен понимать и учитывать эмоциональные состояния человека. Вы можете рассказать о своём состоянии, но не надейтесь на  эмпатию. ИИ - это всего лишь программа, у него нет эмоций и чувств. И на ваши эмоции и чувства ему наплевать.

Отсутствие конфиденциальности и безопасности. Личная информация, предоставленная   ИИ,  может попасть в руки третьих лиц.

Зависимость от технологий. Чрезмерное общение с ИИ может привести к зависимости от технологий, снижению социальной активности и ухудшению навыков общения с реальными людьми.

Некорректные рекомендации. ИИ может давать  рекомендации, которые не учитывают индивидуальные особенности, возраст или эмоциональное состояние, что может привести к нежелательным последствиям.

На мой профессиональный взгляд, особенно опасно заменять психолога искусственным интеллектом людям, которые находятся в пограничном состоянии или в ситуации сложного жизненного выбора.

Будьте внимательны и осторожны в общении с искусственным интеллектом! Контролируйте себя и своих детей!


Источник: vk.com

Комментарии: