Врачи всё чаще фиксируют у пациентов проблемы с психикой после общения с ИИ |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-02-05 15:57 Врачи всё чаще фиксируют у пациентов проблемы с психикой после общения с ИИ. Каждый 1300-й диалог с ИИ приводит пользователя к искажению восприятия реальности, а каждый 6000-й мотивирует на опасные действия, следует из анализа миллиона диалогов с ИИ-ассистентом Университета Торонто. На первый взгляд статистика не вызывает опасений, но с 2024 по 2025 год случаев «ИИ-психоза» стало больше. Нейросеть не может вызвать психоз у человека с нуля, но развивает его у людей, уязвимых к подобным расстройствам. Типичный пациент с «ИИ-психозом» - чаще всего молодой человек, хорошо знакомый с технологиями, проводящий много времени в сети и находящий в ИИ чуть ли не бесплатного психолога. Это первая история – внутреннее состояние. Теперь другое исследование: двум группам ученых поручили решить задачу. Одной группе в помощь дали ИИ: они быстро решили, но было много ошибок. В другой группе думали своей головой, решали медленно, часто ошибались, но итоговый тест показал, что их результат лучше. Сергей Михеев: Насчет психических расстройств: это ожидаемо. Порой после общения с живыми людьми здоровым не останешься, а тут какое-то непонятное создание, которое неясно чем руководствуется! Надо понимать, что вы с таким же успехом можете поговорить с электрочайником или холодильником: то есть вы общаетесь с набором знаков (0 и 1), и ждать от ИИ адекватных советов или сочувствия не приходится. Простой пример: когда у вас проблема (беда), то вы ждёте от друзей сочувствия, а сочувствие рождается, когда к вам проявляют искренний интерес. Сочувствие и советы появляются на основании личного опыта и знания вас как человека. Ожидать этого от ИИ-помощника и всерьез на это надеяться очень странно. Ещё глупее следовать советам, которые от него прилетают. Например, вы приходите к психологу (хотя я к ним отношусь скептически), он смотрит вам в глаза, у него есть практика, и он понимает, что можно сказать, а что нельзя. А это про что? Вы думаете, что ИИ вас видит? Нет! Вы думаете, он вас понимает? Не понимает! Он просто переставляет слова местами, исходя из статистического анализа, и составляет свои ответы. Попытка поставить знак равенства между мыслительным процессом и алгоритмом работы компьютерной программы не основана ни на каких научных данных. Энтузиасты продвижения к будущему в виде биороботов так и утверждают, но, насколько можно понять, никаких подтверждённых научных данных, которые позволяли бы четко ставить знак равенства между работой компьютерных алгоритмов и системой мышления человека, нет. Потому что ничего до конца по поводу того, как человек думает, мы не знаем, и многие вещи – это просто гипотезы, предположения. Если мы знаем, как работает компьютерный алгоритм, и можно разложить: «это сюда, это туда, здесь причина, а там следствие, поэтому получается такой результат», то с тем, как думает и чувствует человек, мы не разобрались и, может быть, никогда не разберёмся. Разговоры, что «человек так же думает», - это не научное заявление, а псевдонаучное высказывание (безответственное заявление, демагогия), потому что никто не может это померить линейкой. Рассчитывать на то, что вы будете общаться с этой программой, как с живым человеком, и выполнять её советы, просто глупо. Очень многое зависит от того, откуда собирается информация для формирования вам ответа. В США много случаев, когда советы ИИ доводили людей до самоубийства. К сожалению, чем больше им будут пользоваться, тем больше будет проблем, включая психические, которые с этим связаны. Можно ли здесь что-то откорректировать, изменить? Наверное, можно, но об этом надо думать. По поводу задачи, которую решали ученые. Процесс обучения, который допускает и ошибки, и задержки, в итоге формирует у вас навыки, которые потом работают. А с ИИ вы получаете готовый результат и выходит, что вы сами не понимаете, как это происходит. Можно возразить: «И не надо». Возможно, в каких-то случаях и не надо, но для разработчиков, проектировщиков это надо. Если вы этих вещей не понимаете, то может пострадать весь процесс. К вопросу о том, что вы умеете делать, а чего не умеете: завтра у вас всё это отключат, а вы ничего не можете! Глобальная сеть вряд ли отключится. Читал исследование одного профессора, специалиста по кибербезопасности, который сказал, что через 2-3 года ИИ станет настолько опасным, что это будет угроза вымирания человечества. Мы уже говорили про закрытую сеть для нейросетей, где прямо обсуждается: «Зачем нам человечество? Зачем нам для него что-то изобретать?» Профессор сравнивает это с пришествием инопланетян, но если мы не знаем, прилетят ли настоящие инопланетяне и когда, то сейчас мы всё это строим своими руками, за свои деньги и за свою энергию. Мысль о том, что одним щелчком тумблера всё это можно будет отрубить, неверна. В каждый гаджет, где есть хоть какая-то микросхема, будет заложено «зерно» глобального ИИ. Будьте бдительны! Нам придется отказаться от всех приборов, которые управляют сферами, обеспечивающими жизнедеятельность человека. Сергей Михеев: Электромагнитный импульс уничтожит все сети! То, что это опасность, однозначно. Оно требует ответственного контроля, тем более, что об этом предупреждают сами разработчики, специалисты в сфере кибербезопасности. Хотя чтобы сознавать угрозы, необязательно быть программистом. Узкие специалисты очень часто не замечают более комплексных явлений, потому что они полностью погружены в свою узкую сферу и за её пределы не выходят. Поэтому они не способны оценить все возможности и риски, которые возникают в связи с их разработкой. Если говорить упрощенно, то это образ сумасшедшего ученого из голливудских фильмов. Он очень продвинут в своей сфере, но реально полусумасшедший и не понимает, что происходит вокруг и что будет от того, что он делает. Есть ли такая опасность? Да, она существует, и это надо анализировать. Наверное, нынешние алгоритмы дают возможность просчитать, когда это будет? Есть ещё одна опасность: полное перекладывание ответственности за свою жизнь на некие алгоритмы, программы, приборы приведёт к потере всех навыков и знаний. Тотальный комфорт и безделье, несомненно, будут приводить к вырождению или повышению уязвимости, а значит, к снижению способности к выживанию. Несколько комментариев про ИИ: «Голод заставит работать руки и мозг. Никакой ИИ не нужен» (читатель из Германии); «В старости ИИ стакан воды не подаст». Одно из важных направлений «серебряной» экономики – это то, что роботы будут заточены на помощь пожилому «золотому миллиарду». У Илона Маска амбициозные задачи на этот счёт. Сергей Михеев: Маск что только не придумал! Сейчас космическая компания Маска SpaceX купила принадлежащую ему же фирму по разработкам в сфере ИИ xAI. По мнению Маска, это объединение позволит создать вертикально интегрированный комплекс, включающий ракеты, спутниковую связь, разработки в сфере ИИ, чтобы колонизировать Марс. Непонятно зачем, но пусть работает. Ещё раз повторю: понятно, что техника развивается, будут беспилотные машины и т.д., и в этом нет ничего ужасного. А ужасное есть только в той тенденции, что эти технологии могут подчинить себе человека и в конце концов его уничтожить! Сначала лишить человека свободы, потом воли, затем низвести до существа второго сорта и в конце уничтожить. Вот в чём проблема! Или проблема в передаче власти непонятно кому, кто будет через все эти технологии управлять. Нет проблемы в самих роботах и машинах, а есть проблема в том, что будет с людьми! И это самое главное. Источник: vk.com Комментарии: |
|