Игорь Ашманов: Цифровые платформы РФ не поняли, что идёт война, и полны украинского и токсичного контента

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Мы наблюдаем деятельность украинских специалистов по производству и распространению антироссийского контента в социальных сетях, каналах, в Интернете, работающих на Центр информационно-психологических операций (ЦИПсО) и их кураторов в Лондоне. Там действуют как минимум десятки тысяч людей.

С появлением искусственного интеллекта украинским фальсификаторам людской ресурс не потребуется, и мы столкнёмся с тем, что вокруг образуется облако сплошного фейка. Автоматические генераторы контента типа ChatGPT, GPT 4, Lama и другие, появившиеся в конце 2022 года, позволят усилить и удешевить производство фальшивок и пропаганды на порядки.

Об этом изданию Украина.ру рассказал член Совета при Президенте Российской Федерации по развитию гражданского общества и правам человека, признанный эксперт в области информационных технологий Игорь Ашманов.

— Игорь Станиславович, украинская токсичная пропаганда во «ВКонтакте» не удаляется должным образом. С чем это связано?

— Это наша сегодняшняя реальность, увы. Представители «ВКонтакте» говорят, что модераторы работают день и ночь, но в действительности, мне кажется, это вопрос политической воли руководства компании и исполнительской дисциплины.

Подавляющую часть этой фильтрации можно делать автоматически, обучая нейросети на различных категориях контента. Это гораздо быстрее и дешевле. Да, токсичный, вредный, запрещённый контент сейчас производится массово, поток огромен. Но это и означает, что его невозможно эффективно фильтровать как сейчас — вручную, рассмотрением модераторов, дожидаясь предписаний от МВД и прокуратуры, а нужно блокировать «на взлёте» своими силами и автоматически. Исполняя давно существующий закон о самоцензуре социальных сетей.

Мы наблюдаем деятельность так называемых украинских арбитражников трафика, специалистов по производству и распространению антироссийского контента в социальных сетях, каналах, в Интернете, работающих на ЦИПсО и их кураторов в Лондоне. Там работают как минимум десятки тысяч людей.

В некоторых каналах и пабликах арбитражников, занятых информационной войной — до 200 тысяч подписчиков. Не все из них активны, но там как минимум десятки тысяч работающих, оплачиваемых специалистов. Там есть детальное разделение труда: управляющие каналы, креативные каналы, производящие пропаганду и фейки: мемы, картинки, тексты, видеоролики; есть каналы-репозитории контента, с 24 февраля там наделали десятки тысяч единиц контента, «креативов».

Это позволяет производить и распространять десятки и сотни новых единиц контента в день, внедряя сотни тысяч копий во все цифровые среды: «ВКонтакте», «Телеграм», «Ютуб», «Фейсбук»*, «Инстаграм»*, «Вотсап», «Твиттер», городские чаты и прочее.

Мы оцениваем количество денег, которое тратится на эту деятельность, как минимум в полмиллиарда рублей в день, то есть в сотни миллионов долларов в месяц (некоторые оценки доходят до 1—2 миллиардов долларов в месяц). И это не считая полусотни крупных и дорогих западных пиар-агентств, работающих в Англии и США по управлению этой машиной пропаганды.

Но пока это всё делается хоть и массово, но вручную, а на подходе автоматические генераторы контента типа ChatGPT, GPT 4, Lama и другие, появившиеся в конце 2022 года, которые позволят усилить и удешевить производство фейков и пропаганды на порядки.

— Как именно можно генерировать контент с помощью Chat GPT и других нейросетей?

— Генеративные нейронные сети называют большими языковыми моделями. Сейчас появились также большие графические модели. Они обучены на очень большом объёме текстов и графики и позволяют выпускать очень гладкие тексты практически на любую тему и по любому заданию (подсказке — «промту»), рисовать картинки также по подсказке или по текстовому описанию. То есть дают возможность автоматически создавать огромный поток контента, который на глаз абсолютно неотличим от произведённого человеком. При этом получается оригинальный контент, а не совпадающие дубли, которые можно было бы распознавать автоматически по образцу.

Это уже повсеместно используется пока в коммерческих целях или чтобы попробовать; более того, в сети уже появилось огромное число людей, которые предлагают обучить пользованию нейронными сетями: как применять для маркетинга, пиара, генерации новостей — для всего. Это значит, что через некоторое время мы столкнёмся с тем, что вокруг образуется облако сплошного фейка — всё будет фальшиво, всё будет сгенерировано искусственным интеллектом: и тексты, и картинки, и видео.

— Чем опасен и чем полезен искусственный интеллект с точки зрения ведения информационной войны на фоне реальных военных действий?

— Полезности я тут не вижу — разве что для пропагандистов и мошенников.. Представьте, раньше мошенник работал с жертвой один на один: долго уговаривал, названивал по телефону, используя украденные персональные данные. Сейчас же возникает возможность само ведение диалога передать машине, которая сможет поддерживать очень убедительную беседу — условно говоря, легко и массово проходить так называемый тест Тьюринга.

[Тест Тьюринга — процесс, в ходе которой человек с помощью текстовых сообщений взаимодействует одновременно с машиной и другим человеком, не видя их. Задача машины — ввести участника в заблуждение.]

Большинство наших граждан не отличают, говорят они с человеком или машиной, при том, что последняя уже может вести и текстовую переписку, и говорить голосом. Более того, искусственный интеллект будет в состоянии распознать жертву, которая ведётся и готова дальше общаться. То есть телефонный мошенник сейчас звонит 50—100 раз в день (тем самым нарабатывая социальный интеллект, который позволяет после первых же реплик понять, стоит ли дальше разводить конкретного абонента или нет). А сейчас это все будут делать машины, которые смогут осуществлять тысячи эффективных звонков в день с одного номера.

Вот и представьте: сейчас, условно, украинский Центр информационно-психологических операций (ЦИПсО) нанимает десятки тысяч роботообразных дешёвых людей для создания и дистрибуции фейков, а с появлением нейросети этого не потребуется.

— Получается, плюсов нет у искусственного интеллекта?

— За плюсы GPT выдают то, что он якобы будет облегчать работу. Я разговаривал с тем парнем, который с помощью искусственного интеллекта защитил диплом в РГГУ. Он не понимает, что он сделал. Ему кажется, что он молодец, придумал умный ход, легко получил свою тройку... Проблема в том, что искусственный интеллект снижает качество всего, чего касается. Он будет генерировать тексты и графику среднего качества.

Знаете, как в известном анекдоте про жирафа: он прибежал на собрание зверей в лесу и говорит, что есть две новости: хорошая и плохая. Звери требуют плохую — она о том, что в лесу кончилась еда, и всем придётся есть дерьмо. Все спрашивают, а хорошая новость тогда в чем? На что жираф отвечает: «Я знаю место, где дерьма очень много». Вот, собственно, то, что нас ждёт с этими генеративными нейронными сетями.

Обратите внимание, какие картинки сейчас генерируют нейросети Stable Diffusion или Kandinsky 2.0 и 2.1. Поскольку модели графические и не знают ничего о прагматике реального мира, они путают правую и левую руку, рисуют какие-то ужасные клешни вместо рук. Вы можете увидеть персонажа, у которого 6 пальцев, люди часто похожи на трупы и так далее.

Но люди, освоившие их использование, в восторге. Оно же само все делает — нужно только кнопку нажать! Человек не умеет рисовать, не может писать связные тексты, а тут дал подсказку — и вот, пожалуйста, готовый продукт. Но продукт низкого качества.

Искусственный интеллект усредняет всё — он же обучается на статистике по большим данным; он будет генерировать материал очень плохого или очень среднего качества, и люди привыкнут кушать этот «интеллектуальный дошик». А фальсификаторы?Манипуляторы будут эти технологии использовать как машину, которая позволяет сгенерировать мощный поток лжи и фейков, в том числе против России.

— При вашем участии была создана система анализа социальных медиа «Крибрум» на 23 языках. Она позволяет мониторить социальные процессы, явления, события. Расскажите, как эта система работает?

— Мы анализируем все социальные сети на русском языке и на 14 языках бывшего СССР; это примерно 100—150 миллионов сообщений и картинок в сутки; разбираем почти все европейские и тюркские языки. Мы собираем информацию для наших клиентов. Это коммерческие компании, государственные организации, некоторые трёхбуквенные и двухбуквенные агентства. У каждого из них задачи разные.

Мы можем видеть все аккаунты Рунета (под 400 миллионов штук), все их посты, комментарии, действия, выявлять тематики, тональность высказываний, сети распространения, в том числе в ретроспективе, то есть мы можем видеть, кто и что писал последние 10 лет.

— Работает ли система на украинском языке? И как, на что она может влиять?

«Крибрум» — это аналитическая компания, мы влиянием не занимаемся. Мы украинский язык давно обрабатываем и давно видим всю их пропаганду. Но мы же просто анализируем информацию и не можем никак воздействовать на украинские сети производства и распространения фейков. Мы поставляем результат различным заказчикам, а дальше уже они должны действовать в меру желания и возможностей: вычислять конкретных украинских противоправных деятелей и принимать меры по ним, блокировать или что-то еще, что возможно с российской стороны сделать.

Мы видим, что украинцы пишут в «Фейсбуке»*, «ТикТоке», «Твиттере», но ведь Россия заблокировать эти соцсети на Украине или на Западе не может. Для нас реально только собирать сведения о том, кто, где и как работает; какие есть группы и сети распространения; о чём пишут сейчас и какие фейки вбрасывают. Мы всё видим, мы делаем отчеты и так далее.

Другое дело, что российские цифровые платформы пока не поняли, что идёт война, и полны украинского и прочего токсичного контента.

— YouTube удалил канал австралийского атамана русского происхождения Семена Бойкова за пророссийскую позицию и поддержку СВО. Как можно защитить наших блогеров от блокировок в Интернете?

— От блокировки на YouTube — никак. Эта цировая платформа — стратегическое оружие США, она делает все что захочет, а точнее, что приказывает ей её государство. Уговоры, официальные обращения и штрафы противостоять этому не помогают. Здесь я вижу лишь один выход — перетаскивать всех на Rutube и Видео «ВКонтакте», где их никто уже не заблокирует. И далее закрывать YouTube в России. Я считаю, что это сработает, нам нужно суверенное информационное пространство. И нам нужны быстрые результаты, мы же воюем.

*Организации, деятельность которых запрещена на территории РФ.


Источник: ukraina.ru

Комментарии: