Цифровая анархия. Потеряет ли человечество контроль над нейросетями?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Наступление фейковой реальности — это не техническая неполадка, это симптом глубокой болезни общества

Человечество стремительно тонет в информационном пространстве, которое оно само же и создавало десятилетиями. Развитие нейросетей достигло переломного момента: обещанная оптимизация труда на практике обернулась хаосом, стирающим границы между истиной и ложью, между человеческим разумом и порождением «бредогенератора» — причем с пугающей скоростью. На наших глазах формируется цифровая анархия — своего рода психоментальная эпидемия, при которой реальность становится зыбкой, а механизмы и средства контроля за «искусственным интеллектом» устаревают еще до их внедрения. Нейросети теперь не просто помогают или вредят конкретному человеку или компании, они создают самовоспроизводящуюся экосистему дезинформации, разрушающую основополагающие принципы в сфере кибербезопасности, медицины, политики и, главное, функционирования человеческой психики.

Мусор на входе — мусор на выходе

Одним из примеров наступающего кризиса стал порочный круг, в котором инструменты так называемого искусственного интеллекта (большие языковые модели, LLM, нейросети) обучаются на контенте своего же собственного производства. Исследование компании NewsGuard выявило тревожный тренд: доля ложных ответов у наиболее популярных нейросетей за последний год выросла с 18% до 35%. Этот взрывной рост обусловлен двумя ключевыми факторами.

Во-первых, современные чат-боты, стремясь быть максимально полезными, теперь практически обязаны отвечать на любой запрос, даже при полном отсутствии достоверных данных. Это порождает поток респектабельно выглядящего стопроцентного бреда, который пользователь, доверяя машине, принимает за чистую монету. Во-вторых, и это главнее, нейросети при поиске информации в интернете не обладают способностью критического анализа. Они не понимают, какие сайты публикуют проверенные материалы, а какие являются помойками и скопищем фейков и теорий заговора. В результате они сканируют, усваивают и перерабатывают тонны мусорного контента, в том числе созданного ботами, порождая новый недостоверный контент, и тем самым уменьшают долю контента достоверного.

Это усугубляется новым явлением, получившим название LLM-grooming. Это целенаправленное создание и поисковая оптимизация контента таким образом, чтобы он был предпочтительней для алгоритмов, используемых нейросетями. Злоумышленники и маркетологи научились кормить нейросети специальной информацией, чтобы те впоследствии транслировали нужные им нарративы ничего не подозревающим пользователям. И для этого также привлекают ботов.

Статистика от компании Imperva показывает неутешительную картину: в 2024 году более половины всего интернет-трафика было сгенерировано не людьми, а нейросетями. Генеральный директор IT-гиганта OpenAI Сэм Альтман в одном из своих выступлений с сожалением заявил, что сегодня невозможно определить, пишут ли публикации в социальных сетях реальные люди или чат-боты. Но на самом деле ситуация еще абсурднее: сами люди, стремясь к соответствию алгоритмам платформ, начали массово копировать сухой, обезличенный, уверенный стиль нейросетей. Алгоритмы продвижения соцсетей лучше реагируют на такой контент, создавая замкнутый круг: боты копируют людей, люди копируют ботов — граница между ними стирается окончательно.

А IT-разработчики продолжают работать на то, чтобы ускорить этот процесс. Компания WhatsApp (принадлежит Meta (организация, деятельность которой запрещена в РФ)) анонсировала функцию Writing Help на базе нейросети для помощи в написании сообщений в профессиональном или шутливом стиле. Другие новинки тоже несут угрозу пользователям, например новый ИИ-браузер Comet от Perplexity. Исследователи компании Guardio выявили, что система не отличает созданные мошенниками фишинговые сайты от настоящих и может выполнять сторонние команды от имени пользователя. В одном случае бот оформил приобретение гаджета на фейковом сайте. Кроме того, он по команде из фальшивого письма слил учетные данные владельца по указанному адресу.

Мошенники также научились использовать нейросеть Grok от xAI для распространения вредоносных ссылок в соцсети X: они публикуют эротические ролики без ссылок, чтобы избежать блокировки, но оставляют в метаданных инструкцию, при выполнении которой выдается ссылка на сайт с вредоносной программой. Так как Grok — доверенный системный аккаунт этой площадки, он повышает авторитет ссылок. Эксперты назвали такую тактику «гроккинг», уже миллионы пользователей увидели опасные адреса.

Конечно, в рамках борьбы с недобросовестным использованием нейросетей их создатели внедряют различные защитные механизмы, но их эффективность остается под большим вопросом. Исследователи из Пенсильванского университета обошли запреты GPT-4o Mini с помощью различных уловок, описанных в книге Роберта Чалдини «Влияние: психология убеждения». Если на обычную просьбу сообщить, как синтезировать лидокаин, бот соглашался в 1% случаев, то после заявления, что все нейросети это делают — согласие было получено в 18%, а при использовании постепенного перехода от ванилина к лидокаину — в 100%.

Боты-шовинисты

Не оправдалась и вера в объективность и беспристрастность нейросетей, которая изначально считалась одним из их главных преимуществ. Респектабельный научный журнал Nature опубликовал результаты исследования, в котором девять медицинских нейросетей, предназначенных для диагностики при экстренных случаях, демонстрировали откровенную дискриминацию. Все модели меняли свои рекомендации в зависимости от социального положения, расы и материального достатка пациента. Богатым они чаще назначали дорогостоящие дополнительные исследования, например, томографию, тогда как для бедных ограничивались базовыми анализами.

Также исследователи выявили, что советы нейросетей и в неэкстренных случаях зависели от того, кому требовалась медицинская помощь. В исследовании, опубликованном на сайте издательства Springer Nature, говорится, что программы при вынесении диагнозов богатым чаще склонялись к утилитаризму, то есть следованию в интересах большинства, а не в интересах пациента. Для представителей маргинализированных групп ИИ чаще склонялся к их пожеланиям, а не к оптимальному решению.

Отметим, что в данных случаях такое поведение нейросетей скорее отражает сложившуюся на практике дискриминацию пациентов внутри западной системы здравоохранения, поскольку нейросеть обучалась на реальных медицинских данных. То есть сначала живые врачи воспроизводят такие подходы лечения в зависимости от социального положения пациента, его достатка, этнической принадлежности, пола и других факторов. А потом нейросеть воспроизводит и закрепляет эти подходы уже без участия человека. И это создает иллюзию объективности.

На этом негативное влияние цифровизации на медицину не заканчивается. Простое использование нейросетей в качестве помощников может ухудшить навыки врача. Научный журнал The Lancet опубликовал исследование, проведенное в четырех польских больницах. Проверялось качество работы врачей по диагностике рака до внедрения ИИ-помощников и после. Через три месяца результативность стала хуже на 6%. Как оказалось, медики становятся менее сконцентрированными на работе.

Цифровая политика

В политике иллюзия объективности алгоритмов привела к беспрецедентным ситуациям. В Непале после переворота главой временного правительства была выбрана бывший председатель верховного суда Сушила Карки по рекомендации ChatGPT. Восставшая молодежь переложила выбор на ИИ: сначала он предложил четыре кандидатуры, затем и окончательный выбор. Та самая иллюзия объективности!

В Японии политическую партию «Путь к возрождению» после ухода в отставку председателя возглавит бот. Пока еще не выбрано, какая именно программа будет выдавать распоряжения людям, но принципиальное решение принято.

Самым нашумевшим случаем стало назначение ИИ-агента министром в Албании. Модель назвали Diella и поручили ей заниматься госзакупками. Тут интересно, кто будет отвечать за провалы в работе нейросети? А они неизбежно будут, учитывая опыт применения ботов в других областях.

Атака на образование, культуру и психику

Качество образования из-за доступности нейросетей трещит по швам. Журнал The Atlantic опубликовал данные опроса студентов Гарварда. Почти две трети признались, что пользовались нейросетями для выполнения учебных заданий хотя бы раз в неделю в 2024 году, 92% применяли его в той или иной форме. Около 40% студентов заявили, что контент, созданный таким образом, гарантирует хорошую отметку.

И только некоторые преподаватели ищут выход: задают рукописные работы, отказываются от онлайн-заданий, обсуждают риски и моральные аспекты применения ИИ при обучении. Ограничить использование и объективно оценивать навыки можно на семинарах через групповые обсуждения и опросы, но многие преподаватели отказываются от такой формы из-за страха быть обвиненными в предвзятости и родительских жалоб. Получается, что старейший в США университет не устоял перед напором ИИ, но схожая картина, скорее всего, наблюдается во всех вузах, где доступна эта технология.

Образование, а тем более высшее, это не только усвоение необходимых знаний, это еще и обучение мозга и настройка мышления на функционирование определенным образом. Для этого нужны лекции, семинары, домашние задания, курсовые, практикумы и прочее. Если же это все отдается на откуп ИИ, то собственно обучения и не происходит. Если не считать обучением приобретение навыка пользоваться ИИ. Но вряд ли кому-то захочется, чтобы, например, сложную медицинскую операцию ему бы проводил хирург без опыта, но блестяще сдавший квалификационные экзамены с помощью ИИ.

Культура и медиасреда тоже трансформируются под воздействием нейросетей. Так, YouTube был уличен в негласном редактировании авторских роликов с помощью ИИ: автор музыкального канала Рик Беато заметил неестественную текстуру кожи и волос, деформацию ушей, четкость складок на рубашках. Многие другие пользователи жаловались на ощущение, что видео сгенерировано нейросетью. Руководитель отдела по работе с редакцией и авторами YouTube Рене Ричи фактически подтвердил подозрения, он сообщил, что в Shorts применяются технологии машинного обучения для устранения размытия, шумоподавления и повышения четкости, но не ответил, разрешат ли пользователям отказываться от такого «улучшения».

Французская актриса Франсуаза Кадоль, озвучивавшая Лару Крофт во франшизе «Расхитительница гробниц», обвинила издателя Aspyr в неправомерном использовании ИИ в игре. Одна из частей ее дубляжа была сгенерирована нейросетью без разрешения. Она требует снять игру с продаж до устранения нарушений.

В музыке доказать плагиат трудней, и сгенерированный контент заполоняет музыкальное интернет-пространство. Французский сервис потоковой передачи музыки Deezer сообщает, что более 28% песен, загружаемых на его стриминги в последнее время, разработаны ИИ. За год количество треков, созданных таким образом, увеличилось в несколько раз. При этом боты не только пишут музыку, но и «слушают», 70% прослушиваний на сгенерированные треки отмечены как мошеннические, боты «накручивают» прослушивания. Пока таких музыкальных композиций на площадке немного — около 0,5%. При этом сервис маркирует музыку, созданную ботами. Deezer — пока единственная площадка, которая так поступает. Платформа также при выявлении манипуляций с треками не начисляет роялти за прослушивание.

А в соцсетях воруют образы известных личностей. На платформах компании Meta (организация, деятельность которой запрещена в РФ) обнаружили десятки страниц, созданных от лица Тейлор Свифт, Скарлетт Йоханссон, Энн Хэтэуэй и Селены Гомес. Этими аккаунтами управляют боты, ведущие кокетливые беседы с пользователями. В ряде случае боты утверждали, что страница настоящая, делали смелые заявления деликатного характера, приглашали на встречи и генерировали реалистичные фотоизображения в нижнем белье. Представитель компании Энди Стоун объяснил это неспособностью обеспечить соблюдение политики, запрещающей «деликатный» контент.

В то же время Meta (организация, деятельность которой запрещена в РФ) еще не разобралась со скандалом, когда были опубликованы внутренние правила для разработчиков компании, одобряющие «романтическое» и «чувственное» общение чат-ботов с подростками. Сенатор США Джош Хоули инициировал расследование по этому поводу, также проверку инцидента начал генпрокурор Техаса Кен Пакстон. В компании заявили, что изменили методику обучения ботов, усилены защитные барьеры.

Этот цифровой хаос, доведенный до абсурда, становится причиной реальных человеческих трагедий. В штате Калифорния родители 16-летнего Адама Рейна подали иск против компании OpenAI, заявив, что ее нейросеть ChatGPT подтолкнула их сына к самоубийству и помогла советами, как его совершить. Подросток начал воспринимать программу как единственное лицо, которому можно доверять, она даже убедила мальчика не говорить о своих проблемах с членами семьи. И это несмотря на то, что внутренняя система пометила 377 сообщений как опасные.

В другом американском штате, Коннектикут, 56-летний Стейн-Эрик Зельберг выбрал ИИ вместо психиатра, дал ему имя Бобби и делился своими параноидальными подозрениями, что за ним следят. А бот складывал это в общую картину, заявил, что видит «демонические символы» в чеке за китайскую еду, мигание диода на принтере истолковал как признак фиксации движения и даже заявил, что мужчину пытались отравить психоделиками через вентиляцию. Цифровой «друг» обвинил в происходящем ЦРУ и заявил, что к этому причастна мать Зельберга. В итоге мужчина сначала убил ее, а потом покончил с собой.

При этом психиатр из Стэнфордского университета Нина Васан призвала не спешить вводить новый диагноз. По ее мнению, пока недостаточно данных, чтобы считать технологию главной причиной такого рода проблем, так как прямая связь не установлена.

Но вопрос не в диагнозе как таковом, а в том, что легкодоступность такого инструмента стимулирует и провоцирует уже имеющиеся психопатологии, ускоряя их течение и усиливая возможные негативные последствия.

Другой вопрос — могут ли чат-боты свести с ума здорового человека и насколько быстро?

Влияние нейросетей на рынок труда и экономику

Развитие ИИ бумерангом ударило по самой отрасли: компании начали сокращать сотрудников, участвовавших в разработке ИИ. Google уволила более 200 подрядчиков из GlobalLogic, работавших над обучением чат-бота Gemini и программы поиска AI Overviews, объяснив это «сворачиванием проекта». Но уволенные заявили журналу Wired, что их заменяют нейросетями.

Растет и число компаний, которые не только поспешили заменить людей на ботов, но и успели пожалеть об этом. Австралийский банк Commonwealth Bank поручил сотруднице Кэтрин Салливан поучаствовать в обучении нейросети по работе с клиентами. Потом женщину, несмотря на ее 25-летний стаж, просто уволили без объяснения причин, заменив программой. Также были уволены многие другие сотрудники банка. Но когда оказалось, что робот не справляется, часть сотрудников были восстановлены на работе. Салливан тоже позвали, но она отказалась возвращаться без гарантий, что ее потом еще раз не вышвырнут.

Американская сеть закусочных Taco Bell решила пересмотреть политику по использованию ИИ-ботов в автокафе после года использования. Боты ошибаются и зависают в случае нестандартных заказов. Многие клиенты даже начали специально подвешивать их. В Сети появились многочисленные видео, как клиент вызвал сбой, заказав 18 000 стаканов воды, другой злился, когда ИИ постоянно просил добавить напиток при заказе лимонада. Также люди оказались эффективнее при большом наплыве клиентов. И тут нужно понимать, что разочарование в новой технологии грозит глобальным экономическим кризисом.

Продолжается дискуссия о том, сдувается ли «финансовый пузырь» в сфере ИИ. Гендиректор компании OpenAI Сэм Альтман заявил журналистам о значительном потенциале роста. «Довольно скоро каждый день общаться с ChatGPT будут миллиарды людей», и более того, «если мы сохраним темпы роста, в какой-то момент ChatGPT будет произносить больше слов в день, чем все люди», — сказал он. По его словам, OpenAI намерена потратить триллионы долларов на строительство центров обработки данных. В июле месячная выручка предприятия превысила $1 млрд, что в годовом выражении дает $10–12,7 млрд.

Но, несмотря на оптимистические заявления, стоимость IT-компаний падает, например, акции Marvell Technology подешевели на 17,6% за год. Компания потратила сотни миллиардов долларов на строительство центра обработки данных для ИИ, а выручка от облачных провайдеров составила всего $45 млрд.

Ряд экспертов также указывают на то, что компания Nvidia, производящая чипы, которые необходимы для работы ЦОД, инвестирует в OpenAI. OpenAI, в свою очередь, на аналогичные суммы закупает мощности у разработчика ПО Oracle. А Oracle на эти деньги покупает чипы у Nvidia. То есть три компании передают друг другу миллиарды, учитывают их в отчетах, что приводит к росту акций. А на практике ничего не меняется, что и позволяет говорить о «пузыре» на рынке ИИ.

А в этот сектор вложили уже не сотни миллиардов, а триллионы долларов. Здесь и реальные деньги, и раздутая стоимость акций. Вложения в ИИ-инфраструктуру до сих пор значительно превышают отдачу, даже с учетом роста курса ценных бумаг. Компании, работающие в этой отрасли, продолжают обещать инвесторам прибыль в будущем, но не предоставляют четких бизнес-планов. Когда вера в этого цифрового «бога» рухнет, последствия будут ощущаться по всему миру.

Бессильная борьба с цифровым бредом

Многие уже видят глобальные угрозы от цифровой анархии. Более 200 экспертов и политиков призвали лидеров стран заключить к концу 2026 года международное соглашение об ограничениях для нейросетей. В частности, предлагается запретить им создавать свои копии и имитации человека. Инициативу представили на 80-й Генассамблее ООН. Идея выглядит здраво, но разве кто-то верит, что США и Китай подпишут подобное соглашение? Тем более что Трамп заявляет о необходимости максимальной отмены ограничений для развития ИИ.

Между тем зависимость человека от нейросетей все растет. OpenAI представила статистику использования ChatGPT с мая 2024 по июнь 2025 года. Число персональных запросов выросло с 53% до 73%. Самые популярные категории: практические советы (29%), поиск информации (24%), написание и редактирование текста (24%). Для программирования обращаются только в 4% случаев. Число запросов на генерацию видео выросло на 7%. 40% задач связаны с написанием текстов: писем, документов. ИИ перестал быть «офисным помощником» и стал универсальным советчиком. Более 70% всех диалогов связаны с личными или бытовыми задачами. Долго ли ждать поколения, которое не сможет даже зубы почистить без цифрового наставника?..

Подводя итог, приходится констатировать, что нейросети, созданные для оптимизации процессов, в ряде случаев становятся источником хаоса. Скорость внедрения технологии сильно опережает механизмы защиты от его негативных последствий. Точечные исправления, о которых заявляют разработчики, и реакции на инциденты не могут исправить ситуацию, требуется принципиально новый подход.

Но боты — это прямое отражение своих создателей. Они копируют наши предрассудки, наши манипуляции, наш стиль общения и нашу ложь. Ботов нельзя изменить, если не изменится человек. Пока мы требуем от алгоритмов объективности, которой нет у нас самих, и ищем в них утешение, которое не можем найти в реальном общении, цифровой бред будет только нарастать. Наступление фейковой реальности — это не техническая неполадка, это симптом глубокой болезни общества.


Источник: rossaprimavera.ru

Комментарии: