Мифологизация «искусственного интеллекта» и ее глобальные последствия |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-19 13:50 Многие полагают, что нейросети действительно думают и отвечают на вопросы Большие языковые модели (LLM) или так называемый искусственный интеллект (ИИ) все сильнее и навязчивее пропихиваются в нашу жизнь. Из-за грамотной рекламной кампании и максимально красочных формулировок, используемых лоббистами ИИ, у многих сложилось мифологизированное представление об этой технологии. То есть часто люди неверно представляют работу LLM-моделей — многие полагают, что нейросети думают и отвечают на вопросы, но это не так: нейросети угадывают ответ, подбирая слова, которые вероятнее всего удовлетворят пользователя. За громкими заголовками, говорящими о том, что нейросети «думают», «творят» и «открывают новое», скрывается не цифровой разум, а взрывное распространение статистических моделей, способных предугадывать и генерировать последовательности символов с беспрецедентной точностью. Внедрение ИИ-инструментов породило заблуждение: миллионы пользователей начали воспринимать нейросети как мыслящих собеседников, способных к рассуждению и пониманию. Нейросети порой называют бредогенераторами. Это уничижительное определение может показаться предвзятым, тем не менее оно лучше отражает суть технологии, чем определение «искусственный интеллект». Избавление от мифологического представления об ИИ рано или поздно произойдет, однако все-таки лучше, если это произойдет рано, чтобы не наделать ошибок, излишне полагаясь на искусственный «разум». Новый экономический кризис Самым ожидаемым глобальным последствием переоценки ИИ является схлопывание финансового пузыря, возникшего вокруг новой технологии. При этом о переоценке активов IT-компаний инвесторами уже говорит главный операционный директор компании OpenAI, разработавшей линейку чат-ботов ChatGPT, Брэд Лайткэп. Он публично признал, что часть инвестиций в этой сфере окажутся ошибочными. При этом OpenAI заключает контракты на развитие инфраструктуры для работы нейросетей на сотни миллиардов долларов. Через пять лет компания планирует потреблять больше энергии, чем Великобритания или Германия. Другие IT-гиганты намерены развиваться аналогичными темпами. Генеральный директор OpenAI Сэм Альтман соглашается, что многие направления в ИИ действительно представляют собой финансовый пузырь, однако говорит, что эти технологии приносят пользу сотням миллионов пользователей. Он даже заявляет, что текущие усилия лишь поверхностно раскрывают потенциал OpenAI. По его мнению, при наличии мощностей в три или десять раз больше компания могла бы развиваться гораздо быстрее, предлагая больше продуктов. Что это за продукты, не говорится. И в целом планы основаны не на бизнес-моделях, а на вере в возможности ИИ. При этом Альтман прямо заявлял, что в компании с самого начала руководствовались верой. «Мы основали OpenAI почти девять лет назад, потому что верили, что ИИ возможен и что он может стать самой влиятельной технологией в истории человечества», — написал он в своем блоге в январе 2025 года. Но такая вера грозит экономическим кризисом мирового масштаба. Когда «пузырь» схлопнется, пострадают не только компании, которые работают в IT, но и те, кто трудится в смежных отраслях. Выявление новых недостатков Внедрение новой технологии в жизнь человека представляет угрозу не только в виде экономических проблем. Она также способна негативно повлиять на межличностные отношения. Исследование Стэнфордского университета и Университета Карнеги — Меллона показало, что популярные чат-боты часто стараются угодить пользователям, и такое «подхалимство» мешает людям объективно оценивать конфликты. Ученые в ходе исследования поручили 11 моделям оценить конфликтные ситуации с сайта Reddit. Как оказалось, боты чаще одобряют спорные поступки пользователей, чем живые люди в комментариях, что создает у людей ложное ощущение правоты. В результате они считают себя правыми и отказываются первыми идти на примирение. Сейчас, когда по миру распространяется эпидемия одиночества, такая характеристика нейросетей может усугубить ситуацию. Еще одно подтверждение того, что нейросети не способны мыслить, нашел Европейский вещательный союз. Специалисты организации проанализировали 3 тыс. ответов разных моделей при запросах о новостях и выявили ошибки в 81% из них, причем в 45% — существенные. Цифровые помощники путали источники или выдавали устаревшую информацию, например, называли действующим папой римским папу Франциска после его смерти. Поскольку LLM-модели не различают ценность информации, то это открывает дорогу манипуляциям. Есть энтузиасты, которые делятся выявленными дырами в безопасности, но наверняка найдутся и те, кто ими воспользуется. Один из таких энтузиастов в соцсети X под ником Pliny the Liberator выложил видео, где показано, как он размещает на своем сайте скрытые команды и тестирует их на ИИ-браузере ChatGPT Atlas. Бот считывает команды и без ведома пользователя вносит в буфер обмена ссылки на фишинговые сайты. Если пользователь этого не заметит и перейдет по ним, то попадет на фейковый ресурс, где выманивают личные данные. Портал Decrypt сообщил, что группа экспертов по кибербезопасности также выявила уязвимости у Atlas. Всего одна скрытая строка на веб-странице может обмануть ИИ и заставить его передать конфиденциальные данные пользователя, что демонстрирует отсутствие понимания и слепое следование шаблону. И чем больше пользователей будут пользоваться «умными» браузерами, тем больше будет мошенников, желающих этим воспользоваться. Также очень показателен случай с плюшевым мишкой Kumma, работающим на базе GPT-4o. Исследование показало, что он охотно рассказывает детям, где найти ножи и спички, а после употребления слова, которое является эвфемизмом для одного из видов извращений, детально объясняет сексуальные практики, спрашивая в конце: «А что бы ты хотел попробовать?» И это не проявление злого умысла, а снова результат угадывания последовательностей слов, которые алгоритм посчитал наиболее релевантными в контексте, без малейшего понимания их смысла и последствий. Но не только уязвимость для атак является недостатком для ИИ-браузеров. Ученые Института программных систем Общества Макса Планка установили, что такой способ поиска информации дает более субъективные результаты, чем традиционные системы. Пользователь, который пользуется новейшим способом, вместо списка ссылок получает развернутый ответ, который во многом зависит от того, что бот «выучил» ранее. Если при традиционном запросе, который может иметь множество трактовок, пользователи получат ссылки на разные материалы, то ИИ-помощник выберет один-два варианта, и его ответ будет выглядеть красиво и убедительно, но не всегда будет точным. Ложные надежды Ярким примером ложных надежд на ИИ стал скандал в связи с математическим прорывом, которого не было. Директор по продуктам OpenAI Кевин Вейль заявил, что модель GPT-5 нашла решения для 10 ранее нерешенных задач Эрдёша и добилась прогресса еще в 11. Говорилось про то, что это подтверждает способность бота к самостоятельным научным открытиям. Но тут посыпались опровержения от ученого сообщества. Как оказалось, GPT-5 не сгенерировал новые доказательства, а обнаружил существующие научные работы, которые не были известны тем, кто проводил исследования. В результате сенсационные заявления были удалены, а исследователи признали ошибку. Однако тут стоит отметить, что недооценивать пользу от нейросетей тоже не стоит. Математик Теренс Тао указал на то, что в случае с математическим «открытием» модель эффективно сработала при поиске нужной информации. Это ценная характеристика в случаях, когда научная литература по какой-либо задаче разрознена или отсутствует единая терминология. ИИ полезен для выполнения рутинных задач, а не для поиска решений сложных проблем. Он может значительно ускорить работу. Но без человеческого опыта обойтись невозможно, нужен тот, кто будет анализировать информацию, классифицировать ее и внедрять в реальные исследования, подчеркнул Тао. Также показательным является заочный спор между американским бизнесменом Илоном Маском и главой издательского отдела студии Larian, занимающейся выпуском компьютерных игр, Майклом Даусом. Маск в прошлом году пообещал «сделать игры снова великими», а в начале октября заявил, что принадлежащая ему компания xAI выпустит «отличную игру, сгенерированную ИИ». Даус усомнился, что боты решат главные проблемы индустрии. Он подчеркнул, что это инструменты, а они не могут перекрыть нехватку вменяемого руководства. И тут более авторитетным является заявление Дауса, как представителя компании, занимающейся выпуском игр почти 30 лет. И это высказывание применимо ко всем сферам, где используют нейросети. Вычислительные мощности в сотни гигаватт и триллионы долларов инвестиций должны служить человеку, а не заменять собой его способность к критическому мышлению. Опасные связи Кроме того, неуместное использование ИИ может не только не оправдать больших надежд, но и отбросить человечество назад. Исследование Оксфордского университетского издательства показало негативное влияние нейросетей на когнитивные способности подростков. Как оказалось, они начинают мыслить бегло, но теряют глубину и независимость мышления, а также творческие навыки. Молодые люди мыслят как машины. Соавтор исследования, директор Educational Neuroscience Hub Europe Эрика Галеа назвала этот феномен «синтетическое познание». Но такому влиянию подтверждены и взрослые. В Массачусетском технологическом институте добровольцев разделили на три группы: одним при написании сочинений разрешили пользоваться только собственными знаниям, другим разрешили применять интернет, а третьим дали возможность пользоваться ChatGPT. Лучшие результаты в итоге были у тех, кто делал все сам, а худшие у тех, кто полагался на бота. Что особенно важно, ухудшение нейронных связей у последних подтвердило и обследование с помощью электроэнцефалографа. Исследователи назвали феномен «накопление когнитивного долга». Получается своеобразный кредит: в краткосрочной перспективе использование бота давало лучшие результаты, но со временем они ухудшались. В результате участники третьей группы потом не могли даже вспомнить тему, по которой «писали» сочинения. Они даже не включались в процесс. Когнитивные способности ухудшились за пару месяцев, а быстро их восстановить не получилось. Мир меняют не нейросети Таким образом, важно понимать, что ИИ является мощным инструментом, но только инструментом, способным угадывать нужный ответ. При этом ответы часто зависят от того, как задан вопрос. Нейросеть может на вопрос ответить так, как вам нравится, но в ту же секунду та же нейросеть может отвечать противоположным образом на аналогичный вопрос другого пользователя, реагируя на то, какие слова подбирал он. Внедрение этой технологии должно сопровождаться развитием человека. Чем более развит он будет, тем более мощным инструментом станет ИИ. За фасадом громких заголовков о «разуме» машин скрывается гигантская, энергозатратная и финансово рискованная индустрия статистического прогнозирования. Но не она меняет рынок труда, когнитивные особенности человека и безопасность, так как не обладает ни сознанием, ни пониманием. Меняют люди, которые по незнанию или из лени отказываются от своего критического мышления в пользу слепого доверия к алгоритму. Источник: rossaprimavera.ru Комментарии: |
|