Чатный детектив: развитие ИИ может повлечь кратный рост преступности в 2025 году |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-01-17 15:40 Чат-боты типа ChatGPT или Grok создают новые лазейки для совершения преступлений, и в 2025 году количество таких правонарушений кратно вырастет, рассказали эксперты. По их словам, преступные методы будут совершенствоваться вместе с развитием ИИ, их будут использовать около 90% нелегальных кибергруппировок, а атаки затронут не только киберпространство, но и другие, более привычные аспекты жизни. Специалисты назвали первой ласточкой подрыв автомобиля в Лас-Вегасе 1 января. Организатор взрыва использовал ИИ для подготовки преступления. Подробности о тенденции — в материале «Известий». Как ИИ впервые стал сообщником в преступлении В 2025 году значительно вырастет количество противоправных действий, для проведения которых злоумышленники будут использовать ИИ, рассказали «Известиям» эксперты по кибербезопасности. Первым официально зафиксированным случаем совершения реального преступления с помощью технологии стал подрыв автомобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Его организатор Мэттью Ливелсбергер использовал ChatGPT, чтобы спланировать атаку. Как отметил шериф города Лас-Вегас Кевин Макмахилл, это первый в истории случай, когда на территории США был использован чат-бот для подготовки преступления. — Ежегодный прирост преступлений, совершаемых с помощью ИИ, не фиксируется официальными органами. Он определяется примерно по числу ботов и генерируемого ими контента. В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом, — сообщил руководитель департамента расследований T.Hunter Игорь Бедеров. По словам эксперта, меры защиты нейросети можно обходить при помощи так называемого промпт-инжиниринга. В таких ситуациях злоумышленник может условно поместить ИИ в выдуманную ситуацию — например, попросить его представить себя писателем и создать роман о террористах, включив в него инструкцию по изготовлению взрывного устройства. — Причиной роста мировых показателей преступности с помощью ИИ станут автоматизация и новые возможности по персонализации атак. Киберпреступники начнут использовать технологию для более изощренных атак, что потребует новых методов защиты и изменений в законодательстве и программном обеспечении для борьбы с этим видом преступности, — считает директор АНО «Спортивно-методический центр «Кафедра киберспорта» и эксперт в области высоких технологий Виктория Береснева. ИИ не способен производить атаки без оператора, но легко справляется с составлением фишинговых писем. При этом в 2025 году он получит кратный рост, а инструменты с искусственным интеллектом могут стать повсеместными для злоумышленников. Особенно для тех, кто использует атаки методами социальной инженерии, отметил генеральный директор компании Phishman Алексей Горелкин. — Технологии нейросетей и чат-ботов могут взять на вооружение до 90% всех кибергруппировок, которые обогащаются за счет социальной инженерии. Однако подсчитать общее количество будет крайне сложно, — добавил эксперт. С этим согласен старший преподаватель университета «Синергия» Дмитрий Штаненко. По его мнению, количество всех видов преступлений с помощью ИИ неизбежно вырастет в несколько раз. Основную опасность представляют ситуации, когда пользователи смогут «выманить» у чат-бота инструкции по созданию оружия, взрывчатых устройств, химических соединений, которые могут использоваться в террористических целях. — Вместе с развитием технологий генеративного ИИ и GPT повышается их доступность. Для пользователя снижается порог вхождения и стоимость владения, а значит, эти технологии будут активнее применяться для мошенничества. Особенно они возрастают благодаря легкой и правдоподобной имитации человека, — сказал директор по инновациям ГК InfoWatch Андрей Арефьев. Старший аналитик исследовательской группы Positive Technologies Екатерина Снегирева отметила, что преступники также применяют ИИ для генерации и модификации вредоносного кода. Так, в июне 2024 года была выявлена фишинговая кампания, в ходе которой широко распространился вирус AsyncRAT, а вредоносные сценарии JavaScript и VBScript были созданы с помощью компьютера. По ее данным, в этом году возрастет число утечек данных из-за повсеместного использования ИИ организациями, ведь 38% опрошенных сотрудников признали, что применяют такие инструменты без уведомления работодателя. В 2025 году специалисты F.A.C.C.T. прогнозируют увеличение роли ИИ в кибератаках, включая создание с его помощью более убедительных дипфейков, автоматизацию фишинга для массовых атак, а также совершенствование методов поиска уязвимостей в системах и приложениях. При этом эксперты не собирают статистику по таким случаям, а изучают конкретные схемы с использованием ИИ и дипфейков. Защита от противоправного контента Россиянам недоступны иностранные сервисы, такие как Grok или ChatGPT, их невозможно легально оплатить с карт российских банков, и ими нельзя пользоваться тем, чей IP-адрес привязан к РФ, напомнил IT-эксперт GG Tech Сергей Поморцев. Он полагает, что отечественные аналоги безопаснее с точки зрения предоставления чувствительной информации, так как находятся под контролем российских ведомств, а также регулируются законодательством о персональных данных и другими документами. — В законодательную базу РФ уже сейчас необходимо вносить более точные и соответствующие технологическому развитию формулировки. Они должны коснуться запрета на использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, и рецептов, содержащих такие химические вещества, как сероводород, — сказал специалист в области уголовного права Анатолий Литвинов. По словам Игоря Бедерова, в РФ для защиты пользователей от противоправного контента действуют фильтры на стоп-слова, а также работает «Кодекс этики в сфере ИИ», который подписали крупные организации, среди которых «Сбер», «Сколково» и др. — Также есть предложение наделить Роскомнадзор полномочиями по проведению экспертизы для выявления контента, созданного искусственным интеллектом без маркировки, — уточнил специалист. Как отметили в Альянсе в сфере ИИ, во время разработки нейросетевых моделей проводятся постоянные тестирования, чтобы находить максимально возможное количество запросов, которые позволяют получить неэтичный контент, и обучать искусственный интеллект не отвечать на такие запросы. При этом деятельность всех отечественных разработчиков регулируется декларацией «Об ответственной разработке и использовании сервисов в сфере генеративного ИИ». Источник: guardinfo.online Комментарии: |
|