Искусственный интеллект: новый инструмент в руках мошенников

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Мир стремительно меняется, и искусственный интеллект играет в этих изменениях всё более значительную роль. Умные устройства, автоматизированные системы, нейросети – всё это прочно входит в нашу повседневную жизнь, упрощая многие задачи. Однако, как и любая мощная технология, ИИ может быть использован во зло.

К сожалению, мошенники уже активно пользуются возможностями искусственного интеллекта для реализации всё более изощрённых схем жульничества. В прошлом мошенники полагались на социальную инженерию, обманывая жертву с помощью уговоров и манипуляций. Сегодня же, благодаря ИИ, они получили в руки мощные инструменты для создания убедительных фальшивок. Речь идет о таких опасных методах, как:

Дипфейки: Видео- и аудиоподделки, созданные с помощью ИИ, которые практически невозможно отличить от оригинала. Мошенники могут использовать дипфейки, чтобы изобразить вас в компрометирующей ситуации, после чего шантажировать, требуя деньги.

Синтез речи: ИИ позволяет создавать реалистичные копии голоса человека по небольшому образцу. Мошенник может "скопировать" ваш голос или голос вашего близкого, чтобы позвонить вам или вашим друзьям, представиться вами и попросить о финансовой помощи.

Подделка документов: ИИ может создавать поддельные документы, такие как банковские выписки, удостоверения личности, медицинские справки и многое другое. Эти подделки используются для легализации преступной деятельности или для получения кредитов и займов на ваше имя.

Будьте скептичны! Не доверяйте информации, полученной из непроверенных источников, особенно если речь идёт о просьбах о финансовой помощи. Даже если вам звонит человек, голос которого очень похож на голос вашего друга или родственника, обязательно перезвоните ему по известному вам номеру, чтобы убедиться в подлинности просьбы.

Проверяйте источники! Перед тем как перевести деньги или предоставить какую-либо информацию, тщательно проверьте источник сообщения. Обратите внимание на адрес электронной почты, номер телефона, ссылки на сайты. Если что-то вызывает подозрение, не спешите действовать.

Изучайте признаки дипфейков! Учитесь распознавать признаки подделки видео и аудио. Обращайте внимание на несоответствия в мимике, артефакты на изображении, искажения звука. Хотя абсолютной гарантии нет, определенные признаки могут указать на подделку.

Будьте осторожны в социальных сетях! Ограничивайте доступ к личной информации. Мошенники могут использовать ее для создания более убедительных подделок.

Регулярно обновляйте антивирусное ПО! Современные антивирусные программы обладают функциями защиты от фишинга и распознавания вредоносных программ, которые могут использоваться для распространения дипфейков и других видов мошенничества, связанных с ИИ.


Источник: vk.com

Комментарии: