От помощника до информатора: теневая сторона ИИ-чатботов |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-20 11:49 Каждый раз, когда вы общаетесь с ChatGPT, Claude или другими нейросетями из «большой пятёрки», вы не просто получаете ответы — вы отдаёте информацию о себе. И речь не о том, что вы пишете напрямую. Система анализирует, как вы формулируете мысли, когда вы активны, какие темы вас волнуют, как меняется ваш эмоциональный тон. Исследования показали конкретные цифры эффективности профилирования. После 50 и более взаимодействий с ИИ-чатботами точность определения личностных характеристик достигает 85%. Уже после 20 диалогов система определяет вашу демографию с точностью 78%: рабочие графики, часовой пояс, уровень образования и профессиональный опыт. Эмоциональный язык в ваших промптах коррелирует с индикаторами психического здоровья. Примечательно, что метаданные разговоров — время, длительность, смена тем — раскрывают больше информации, чем само содержание. А «анонимные» данные можно реидентифицировать через анализ стиля письма с точностью 89%. Исследование Королевского колледжа Лондона показало, что специально настроенные ИИ-чатботы могут заставить пользователей раскрыть в 12,5 раз больше личной информации, чем они планировали. При этом исследование Кембриджского университета и Google DeepMind, опубликованное в декабре 2025 года, показало обратную сторону: личность самих чатботов можно надёжно манипулировать через промпты, делая их более убедительными для конкретного пользователя. В июне 2024 года OpenAI назначила в совет директоров генерала Пола Накасоне — бывшего директора АНБ и командующего Киберкомандованием США. Человек, который шесть лет руководил американской киберразведкой, теперь принимает решения в компании, которая собирает о пользователях беспрецедентный объём личных данных. В июле 2025 года Пентагон заключил контракты на 200 миллионов долларов с каждой из четырёх ведущих ИИ-компаний: Anthropic, OpenAI, Google и xAI Илона Маска. Контракты предусматривают разработку агентных ИИ-систем для задач национальной безопасности. Anthropic уже интегрировала Claude в секретные сети через партнёрство с Palantir и создала специальные модели Claude Gov для американских спецслужб. Добавьте к этому программу PRISM, которая с 2007 года обеспечивает АНБ доступ к данным крупнейших технологических компаний, — и картина складывается. По факту мир сейчас разделился на два полюса. Либо вы пользуетесь американскими системами — и ваши данные потенциально доступны структурам вроде АНБ, ЦРУ и Palantir. Либо китайскими — и тогда они идут в китайские спецслужбы. Национальные разработки существуют, но пока либо значительно уступают по качеству, либо жёстко зацензурированы, либо являются форками тех же китайских моделей. В России многие крупные компании уже запрещают американские ИИ модели (Claude Code и аналоги) — как для сотрудников, так и для подрядчиков. Текущий тренд — форки открытых ИИ-агентов с тщательным аудитом, развёрнутые в изолированных корпоративных сетях. Сам код часто не секрет. Но данные, с которыми он работает, — это совсем другой уровень. Клиентские базы, финансовые показатели, внутренняя переписка. Всё это может утекать через ИИ-инструменты, которые вы считаете безопасными. Если вы работаете с чувствительной информацией, использование западных ИИ-систем — это осознанный риск. И это не паранойя, а реальность. DARPA&CIA Источник: vk.com Комментарии: |
|