А теперь совсем неожиданное. Все ваши переписки с нейросетями когда-нибудь кто-то сможет прочитать |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-07-12 12:31 Ваши секреты в ChatGPT больше не исчезают: как суд меняет правила игры с ИИ Введение: приватность в эпоху ИИ под ударом? Вы когда-нибудь задумывались, что происходит с вашими сообщениями, которые вы отправляете в ChatGPT? Может, вы делились личными мыслями, обсуждали рабочие идеи или просто шутили с ботом, уверенные, что все это исчезнет после нажатия кнопки "удалить"? Если да, то у меня для вас новости: ваши чаты теперь могут храниться дольше, чем вы думаете. Решение федерального суда Нью-Йорка перевернуло правила игры, и теперь OpenAI обязана сохранять все, что вы пишете. Даже то, что вы "стёрли". Давайте разберемся, что это значит, почему так произошло и как защитить свои данные в новой реальности. Что случилось? Судебное решение, которое меняет всё В мае 2025 года судья Южного округа Нью-Йорка Она Т. Ван вынесла постановление, которое обязывает OpenAI сохранять все пользовательские данные, включая запросы и ответы ChatGPT, даже если вы их удалили. Это решение связано с иском, поданным The New York Times, The New York Daily News и другими изданиями против OpenAI и Microsoft. Суть претензий? Компании якобы использовали миллионы защищённых авторским правом текстов для обучения своих моделей ИИ, включая ChatGPT. Издания опасаются, что OpenAI может "очистить" улики, удалив данные, которые подтверждают нарушения. Суд решил: никаких удалений. Все данные, которые обычно стирались через 30 дней (или сразу, если вы нажали "удалить"), теперь должны храниться на неопределённый срок. Это касается пользователей всех тарифов ChatGPT — от бесплатного до корпоративного, если только у вас нет специального соглашения о "нулевом хранении данных". OpenAI уже подала апелляцию, утверждая, что это требование нарушает конфиденциальность пользователей, но пока решение остаётся в силе. Почему это важно для вас? Представьте: вы обсуждаете с ChatGPT личный проект, делитесь идеями или, может, просто задаёте вопросы, которые не хотели бы показывать кому-то ещё. Теперь эти данные могут быть сохранены и, в теории, использованы в судебных разбирательствах. Нет, это не значит, что ваши чаты сразу попадут в руки юристов The New York Times. Доступ к данным строго ограничен: их могут просматривать только определённые сотрудники OpenAI и юристы под надзором суда. Но сам факт, что ваши "удалённые" сообщения теперь где-то хранятся, заставляет задуматься. Более того, это решение поднимает глобальный вопрос: как далеко могут зайти компании и суды в доступе к вашим данным? Ведь если сегодня это иск о копирайте, то завтра ваши чаты могут стать частью других разбирательств. И это не фантазия — это новая реальность цифровой приватности. Как работает ChatGPT с вашими данными? Чтобы понять масштаб, давайте разберёмся, как ChatGPT обрабатывает ваши сообщения. Когда вы пишете запрос, он сохраняется на серверах OpenAI. Если вы используете бесплатную версию или тарифы Plus/Pro/Team, ваши данные могут использоваться для улучшения модели, если вы не отключили эту опцию. Обычно OpenAI удаляет чаты через 30 дней для бесплатных пользователей (или сразу, если вы вручную удаляете переписку). Но теперь, из-за судебного решения, даже удалённые данные остаются в базах компании. Важный нюанс: если у вас корпоративный тариф с соглашением о "нулевом хранении", ваши данные по-прежнему защищены и удаляются по расписанию. Но таких пользователей — меньшинство. Для всех остальных правило простое: всё, что вы пишете, теперь под "судебным замком". Почему The New York Times пошла против OpenAI? Иск The New York Times — это не просто попытка защитить свои тексты. Это часть большой войны за авторские права в эпоху ИИ. Издания утверждают, что OpenAI и Microsoft использовали их статьи для обучения моделей, не заплатив ни цента. Более того, они говорят, что ChatGPT может воспроизводить фрагменты их текстов почти дословно, если пользователь задаёт правильные запросы. Чтобы доказать это, NYT потребовала сохранить пользовательские чаты — ведь именно в них могут быть запросы, которые "вытягивают" защищённый контент. Интересно, что The New York Times ранее выступала за защиту приватности, критиковала слежку со стороны Big Tech и даже публиковала расследования о сборе данных. Теперь же издание само требует доступ к пользовательским данным, что выглядит как противоречие. Но в их логике есть смысл: они хотят защитить свою интеллектуальную собственность. Вопрос только, не пострадают ли при этом обычные пользователи? Что это значит для будущего ИИ и вашей приватности? Это решение суда — лишь начало. Иск The New York Times — один из многих. Похожие дела против OpenAI и других компаний, разрабатывающих ИИ, появляются по всему миру. Например, авторы книг, такие как Джордж Р. Р. Мартин, уже подали иски, утверждая, что их произведения использовались для тренировки моделей. Эти процессы могут привести к новым требованиям по хранению данных, что сделает ИИ-пространство ещё менее приватным. Но есть и другая сторона. Судебные разбирательства заставляют компании, такие как OpenAI, быть прозрачнее в том, как они используют данные. Возможно, это подтолкнёт разработчиков ИИ к созданию более безопасных моделей, где пользовательские данные будут лучше защищены. Например, xAI, создатели Grok, делают акцент на прозрачности и конфиденциальности, хотя и их продукты пока не избежали вопросов о приватности. Как защитить свои данные прямо сейчас? Пока суды и компании разбираются, вы можете взять контроль в свои руки. Вот несколько шагов, чтобы минимизировать риски: Отключите использование данных для обучения. В настройках ChatGPT есть опция, позволяющая запретить OpenAI использовать ваши запросы для улучшения модели. Это не защитит от судебного хранения, но снизит вероятность использования ваших данных в других целях. Будьте осторожны с личной информацией. Не делитесь в чатах с ИИ тем, что не хотели бы видеть в чужих руках. Представьте, что ваш запрос может быть прочитан кем-то ещё. Используйте ИИ с прозрачной политикой. Например, Grok от xAI или другие модели с открытой политикой конфиденциальности могут быть более безопасным выбором. Проверьте, как компания обрабатывает ваши данные, прежде чем начать диалог. Следите за новостями. Ситуация с OpenAI и другими ИИ-компаниями меняется быстро. Апелляция OpenAI может отменить или изменить решение суда, так что держите руку на пульсе. Заключение: новая эра ИИ и приватности Решение суда в Нью-Йорке — это не просто юридический казус, а сигнал о том, что эпоха "безоблачной" приватности в ИИ закончилась. Ваши чаты с ботами, которые казались личными, теперь могут стать частью больших разбирательств. Это не повод отказываться от ИИ — он всё ещё невероятно полезен. Но это повод быть внимательнее к тому, что вы пишете, и выбирать платформы, которые уважают вашу конфиденциальность. А пока подумайте: что вы сегодня напишете своему ИИ-помощнику? И готовы ли вы к тому, что это может остаться в цифровой памяти дольше, чем вы планировали? Источник: vk.com Комментарии: |
|