Система для выявления экстремистов в соцсетях появилась в России |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-11-06 10:00 Фото: портал мэра и правительства Москвы/Дарья Мясина Пермский государственный национальный исследовательский университет (ПГНИУ) создал математические модели, способные выявить экстремистскую идеологию в социальных сетях. Новый сервис обучен анализировать профили, посты и комментарии, а также распознавать в них призывы к беспорядкам, сообщает газета "Известия" со ссылкой на сайт ПГНИУ. Уникальный датасет создал доцент института компьютерных технологий Андрей Рабчевский. Вместе с тем одна из пермских компаний разработала специальную поисковую систему. Пособие, в котором описывается методика ее применения, стала одним из победителей конкурса Академии МВД России. Созданный Рабчевским датасет способен выявлять роли пользователей соцсетей, которые оказались вовлечены в деструктивные социальные явления, пояснил он в беседе с газетой. По его словам, модели, созданные в университете, являются универсальными, поскольку они могут применяться в целях выявления потенциально опасных аккаунтов в области не только экстремизма, но и терроризма, а также изготовления самодельных взрывных устройств и нападений на школы. "Система работает просто. Она постоянно отслеживает и выявляет инфоповоды, которые потом классифицируются по разделам – например, терроризм, политика, бизнес и так далее. Затем смотрит, как они наполняются публикациями. И те инфоповоды, в которых появляется экстремальная активность, мы проверяем на признаки информационной атаки. Мы выявляем, кто вовлечен в эту атаку, какую роль играет, в какую атакующую структуру входит, каких целей пытается достичь. А затем уже принимаем решение о мерах противодействия", – объяснил собеседник журналистов. При этом в основу механизма была положена поисковая система "Сеус", которая была специально создана для работы с социальными сетями. В них содержится гораздо больше информации, чем в новостных каналах, пояснил Рабчевский. Система способна изучать появляющиеся в них публикации, открытые профили, группы, лайки и комментарии, а затем проводить анализ поведения пользователей. При поиске алгоритмы выделяют ключевые слова. Так, для каждого деструктивного направления был создан список таких терминов и словосочетаний. При обнаружении "ключей" программа откладывает сообщение, а затем приступает к его изучению. В настоящее время поисковая система применяется более чем в половине территориальных управлений МВД РФ, подчеркнул Рабчевский. По его словам, ее использование позволило предотвратить до десятка преступлений, связанных с расстрелами в российских школах. В частности, благодаря этой системе удалось ликвидировать деструктивное явление "Синий кит". По словам Рабчевского, сейчас в социальных сетях ведется скрытая работа, направленная на вовлечение пользователей в экстремистскую идеологию. Специалисты применяют новые методики уже после того, как поисковая система создаст коллекцию публикаций, данные об их авторах и их социальных связях. Система дает правоохранителям возможность автоматически выявить, какие пользователи имеют отношение к этой работе, какую роль они играют в этом процессе и кто из них представляет наибольшую опасность. Выявлением экстремизма в соцсетях занимаются МВД и ФСБ. Однако на фоне колоссальных объемов информации эта работа становится сложной и трудоемкой, что приводит к возникновению риска что-то упустить. Не менее важно, что сотрудники спецслужб, как правило, выполняют эту работу вручную, поэтому ее необходимо автоматизировать, используя искусственный интеллект, и ускорить процесс, подчеркнул доцент пермского университета. Вопрос блокировки экстремистских сообщений важен в связи с тем, что интернет и социальные сети стали инструментами влияния на массовое сознание общества, подчеркнул руководитель Лаборатории стратегического развития продуктов кибербезопасности одного из аналитических центров Дмитрий Овчинников. По его словам, с использованием Сети можно формировать общественное мнение, менять его и подталкивать людей к неправомерным действиям. Однако в настоящий период с развитием систем хранения данных и искусственного интеллекта появилась возможность для проверки больших объемов информации в короткие периоды времени. На этом фоне и стали появляться инструменты, подобные разработанной Рабчевским поисковой системе, пояснил Овчинников. Сейчас выявление экстремистов в Сети происходит несколькими способами. Так, о подозрительных пользователях и группах правоохранителям могут сообщить неравнодушные читатели. Вместе с тем силовые структуры самостоятельно ведут разработку экстремистских групп и по мере накопления материалов для открытия уголовного дела задерживают подозреваемых. Тем не менее эти меры оставались достаточными в период расцвета интернета. В настоящее же время важно в кратчайшие сроки реагировать на подобные происшествия, отметил Овчинников. По его словам, многие преступления можно предотвратить на раннем этапе, если зафиксировать подобную активность в социальных сетях. "Аналог такой программы уже создавался для мониторинга состояния дел в регионах и городах. По нему можно было засечь недовольство жителей региона и скорректировать работу управленцев. Была ли запущена эта система в действие – мне неизвестно, но в целом направление идей о цифровом контроле вполне логично и укладывается в парадигму цифровизации окружающего пространства", – подчеркнул собеседник газеты. Подобные системы применяются и в других странах, обратил внимание эксперт по аналитическим системам Петр Иванов. Так, в США и странах Евросоюза применяются технологии для мониторинга социальных сетей с целью выявления экстремистских угроз и предотвращения терактов. Такие системы находятся в постоянном развитии, поскольку в них используются машинное обучение и анализ больших данных, пояснил специалист. Ранее в Госдуме предложили блокировать видеопубликации с убийствами и пытками в соцсетях. По словам автора инициативы, подобный контент разрушает психику людей всех возрастов, будь то взрослый или подросток. Кроме того, при просмотре таких материалов у детей неверно формируются ценности и жизненные установки. Источник: www.m24.ru Комментарии: |
|