От помощника до информатора: теневая сторона ИИ-чатботов

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Каждый раз, когда вы общаетесь с ChatGPT, Claude или другими нейросетями из «большой пятёрки», вы не просто получаете ответы — вы отдаёте информацию о себе. И речь не о том, что вы пишете напрямую. Система анализирует, как вы формулируете мысли, когда вы активны, какие темы вас волнуют, как меняется ваш эмоциональный тон.

Исследования показали конкретные цифры эффективности профилирования. После 50 и более взаимодействий с ИИ-чатботами точность определения личностных характеристик достигает 85%. Уже после 20 диалогов система определяет вашу демографию с точностью 78%: рабочие графики, часовой пояс, уровень образования и профессиональный опыт. Эмоциональный язык в ваших промптах коррелирует с индикаторами психического здоровья.

Примечательно, что метаданные разговоров — время, длительность, смена тем — раскрывают больше информации, чем само содержание. А «анонимные» данные можно реидентифицировать через анализ стиля письма с точностью 89%. Исследование Королевского колледжа Лондона показало, что специально настроенные ИИ-чатботы могут заставить пользователей раскрыть в 12,5 раз больше личной информации, чем они планировали. При этом исследование

Кембриджского университета и Google DeepMind, опубликованное в декабре 2025 года, показало обратную сторону: личность самих чатботов можно надёжно манипулировать через промпты, делая их более убедительными для конкретного пользователя.

В июне 2024 года OpenAI назначила в совет директоров генерала Пола Накасоне — бывшего директора АНБ и командующего Киберкомандованием США. Человек, который шесть лет руководил американской киберразведкой, теперь принимает решения в компании, которая собирает о пользователях беспрецедентный объём личных данных.

В июле 2025 года Пентагон заключил контракты на 200 миллионов долларов с каждой из четырёх ведущих ИИ-компаний: Anthropic, OpenAI, Google и xAI Илона Маска. Контракты предусматривают разработку агентных ИИ-систем для задач национальной безопасности. Anthropic уже интегрировала Claude в секретные сети через партнёрство с Palantir и создала специальные модели Claude Gov для американских спецслужб.

Добавьте к этому программу PRISM, которая с 2007 года обеспечивает АНБ доступ к данным крупнейших технологических компаний, — и картина складывается.

По факту мир сейчас разделился на два полюса. Либо вы пользуетесь американскими системами — и ваши данные потенциально доступны структурам вроде АНБ, ЦРУ и Palantir. Либо китайскими — и тогда они идут в китайские спецслужбы. Национальные разработки существуют, но пока либо значительно уступают по качеству, либо жёстко зацензурированы, либо являются форками тех же китайских моделей.

В России многие крупные компании уже запрещают американские ИИ модели (Claude Code и аналоги) — как для сотрудников, так и для подрядчиков. Текущий тренд — форки открытых ИИ-агентов с тщательным аудитом, развёрнутые в изолированных корпоративных сетях.

Сам код часто не секрет. Но данные, с которыми он работает, — это совсем другой уровень. Клиентские базы, финансовые показатели, внутренняя переписка. Всё это может утекать через ИИ-инструменты, которые вы считаете безопасными.

Если вы работаете с чувствительной информацией, использование западных ИИ-систем — это осознанный риск. И это не паранойя, а реальность.

DARPA&CIA


Источник: vk.com

Комментарии: