Врачи всё чаще фиксируют у пациентов проблемы с психикой после общения с ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Врачи всё чаще фиксируют у пациентов проблемы с психикой после общения с ИИ. Каждый 1300-й диалог с ИИ приводит пользователя к искажению восприятия реальности, а каждый 6000-й мотивирует на опасные действия, следует из анализа миллиона диалогов с ИИ-ассистентом Университета Торонто. На первый взгляд статистика не вызывает опасений, но с 2024 по 2025 год случаев «ИИ-психоза» стало больше. Нейросеть не может вызвать психоз у человека с нуля, но развивает его у людей, уязвимых к подобным расстройствам. Типичный пациент с «ИИ-психозом» - чаще всего молодой человек, хорошо знакомый с технологиями, проводящий много времени в сети и находящий в ИИ чуть ли не бесплатного психолога. Это первая история – внутреннее состояние. Теперь другое исследование: двум группам ученых поручили решить задачу. Одной группе в помощь дали ИИ: они быстро решили, но было много ошибок. В другой группе думали своей головой, решали медленно, часто ошибались, но итоговый тест показал, что их результат лучше.

Сергей Михеев: Насчет психических расстройств: это ожидаемо. Порой после общения с живыми людьми здоровым не останешься, а тут какое-то непонятное создание, которое неясно чем руководствуется! Надо понимать, что вы с таким же успехом можете поговорить с электрочайником или холодильником: то есть вы общаетесь с набором знаков (0 и 1), и ждать от ИИ адекватных советов или сочувствия не приходится. Простой пример: когда у вас проблема (беда), то вы ждёте от друзей сочувствия, а сочувствие рождается, когда к вам проявляют искренний интерес. Сочувствие и советы появляются на основании личного опыта и знания вас как человека. Ожидать этого от ИИ-помощника и всерьез на это надеяться очень странно. Ещё глупее следовать советам, которые от него прилетают.

Например, вы приходите к психологу (хотя я к ним отношусь скептически), он смотрит вам в глаза, у него есть практика, и он понимает, что можно сказать, а что нельзя. А это про что? Вы думаете, что ИИ вас видит? Нет! Вы думаете, он вас понимает? Не понимает! Он просто переставляет слова местами, исходя из статистического анализа, и составляет свои ответы. Попытка поставить знак равенства между мыслительным процессом и алгоритмом работы компьютерной программы не основана ни на каких научных данных. Энтузиасты продвижения к будущему в виде биороботов так и утверждают, но, насколько можно понять, никаких подтверждённых научных данных, которые позволяли бы четко ставить знак равенства между работой компьютерных алгоритмов и системой мышления человека, нет. Потому что ничего до конца по поводу того, как человек думает, мы не знаем, и многие вещи – это просто гипотезы, предположения.

Если мы знаем, как работает компьютерный алгоритм, и можно разложить: «это сюда, это туда, здесь причина, а там следствие, поэтому получается такой результат», то с тем, как думает и чувствует человек, мы не разобрались и, может быть, никогда не разберёмся. Разговоры, что «человек так же думает», - это не научное заявление, а псевдонаучное высказывание (безответственное заявление, демагогия), потому что никто не может это померить линейкой. Рассчитывать на то, что вы будете общаться с этой программой, как с живым человеком, и выполнять её советы, просто глупо. Очень многое зависит от того, откуда собирается информация для формирования вам ответа. В США много случаев, когда советы ИИ доводили людей до самоубийства. К сожалению, чем больше им будут пользоваться, тем больше будет проблем, включая психические, которые с этим связаны.

Можно ли здесь что-то откорректировать, изменить? Наверное, можно, но об этом надо думать.

По поводу задачи, которую решали ученые. Процесс обучения, который допускает и ошибки, и задержки, в итоге формирует у вас навыки, которые потом работают. А с ИИ вы получаете готовый результат и выходит, что вы сами не понимаете, как это происходит. Можно возразить: «И не надо». Возможно, в каких-то случаях и не надо, но для разработчиков, проектировщиков это надо. Если вы этих вещей не понимаете, то может пострадать весь процесс. К вопросу о том, что вы умеете делать, а чего не умеете: завтра у вас всё это отключат, а вы ничего не можете!

Глобальная сеть вряд ли отключится. Читал исследование одного профессора, специалиста по кибербезопасности, который сказал, что через 2-3 года ИИ станет настолько опасным, что это будет угроза вымирания человечества. Мы уже говорили про закрытую сеть для нейросетей, где прямо обсуждается: «Зачем нам человечество? Зачем нам для него что-то изобретать?» Профессор сравнивает это с пришествием инопланетян, но если мы не знаем, прилетят ли настоящие инопланетяне и когда, то сейчас мы всё это строим своими руками, за свои деньги и за свою энергию. Мысль о том, что одним щелчком тумблера всё это можно будет отрубить, неверна. В каждый гаджет, где есть хоть какая-то микросхема, будет заложено «зерно» глобального ИИ. Будьте бдительны! Нам придется отказаться от всех приборов, которые управляют сферами, обеспечивающими жизнедеятельность человека.

Сергей Михеев: Электромагнитный импульс уничтожит все сети! То, что это опасность, однозначно. Оно требует ответственного контроля, тем более, что об этом предупреждают сами разработчики, специалисты в сфере кибербезопасности. Хотя чтобы сознавать угрозы, необязательно быть программистом. Узкие специалисты очень часто не замечают более комплексных явлений, потому что они полностью погружены в свою узкую сферу и за её пределы не выходят. Поэтому они не способны оценить все возможности и риски, которые возникают в связи с их разработкой.

Если говорить упрощенно, то это образ сумасшедшего ученого из голливудских фильмов. Он очень продвинут в своей сфере, но реально полусумасшедший и не понимает, что происходит вокруг и что будет от того, что он делает. Есть ли такая опасность? Да, она существует, и это надо анализировать. Наверное, нынешние алгоритмы дают возможность просчитать, когда это будет?

Есть ещё одна опасность: полное перекладывание ответственности за свою жизнь на некие алгоритмы, программы, приборы приведёт к потере всех навыков и знаний. Тотальный комфорт и безделье, несомненно, будут приводить к вырождению или повышению уязвимости, а значит, к снижению способности к выживанию.

Несколько комментариев про ИИ: «Голод заставит работать руки и мозг. Никакой ИИ не нужен» (читатель из Германии); «В старости ИИ стакан воды не подаст». Одно из важных направлений «серебряной» экономики – это то, что роботы будут заточены на помощь пожилому «золотому миллиарду». У Илона Маска амбициозные задачи на этот счёт.

Сергей Михеев: Маск что только не придумал! Сейчас космическая компания Маска SpaceX купила принадлежащую ему же фирму по разработкам в сфере ИИ xAI. По мнению Маска, это объединение позволит создать вертикально интегрированный комплекс, включающий ракеты, спутниковую связь, разработки в сфере ИИ, чтобы колонизировать Марс. Непонятно зачем, но пусть работает.

Ещё раз повторю: понятно, что техника развивается, будут беспилотные машины и т.д., и в этом нет ничего ужасного. А ужасное есть только в той тенденции, что эти технологии могут подчинить себе человека и в конце концов его уничтожить! Сначала лишить человека свободы, потом воли, затем низвести до существа второго сорта и в конце уничтожить. Вот в чём проблема! Или проблема в передаче власти непонятно кому, кто будет через все эти технологии управлять. Нет проблемы в самих роботах и машинах, а есть проблема в том, что будет с людьми! И это самое главное.


Источник: vk.com

Комментарии: