Создан первый ИИ-вирус |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-03-10 12:15 В недавнем исследовании, проведенном группой израильских ученых, был создан первый вредоносный ИИ-червь, способный автоматически распространяться между генеративными ИИ-агентами. Это открытие указывает на новый вид кибератак, которые могут быть использованы в связанных, автономных экосистемах искусственного интеллекта. Чтобы продемонстрировать возможности червя, исследователи создали почтовую систему, которая может отправлять и получать сообщения подключаясь к ИИ ChatGPT, Gemini и открытой LLM под названием LLaVA. Специалисты обнаружили два способа эксплуатации системы: с использованием текстового самовоспроизводящегося запроса и встраивая самовоспроизводящийся запрос в изображение. Исследование подчеркивает, что генеративные ИИ-черви являются новым риском безопасности, который должен беспокоить стартапы, разработчиков и технологические компании. Хотя генеративные ИИ-черви еще не обнаружены в "дикой природе", эксперты в области безопасности считают, что риск их появления в будущем достаточно велик. Специалисты сообщили о своих находках в Google и OpenAI, подчеркивая необходимость разработки более надежных систем безопасности и предостерегая разработчиков от использования вредоносного ввода. Google отказалось комментировать исследование, в то время как представитель OpenAI отметил работу над усилением устойчивости своих систем к подобным атакам. Некоторые способы защиты от потенциальных ИИ-вирусов уже существуют, например, использование традиционных подходов к безопасности и обеспечение участия человека в процессе принятия решений ИИ-агентами. Эксперты подчеркивают важность разработки безопасных приложений и мониторинга для предотвращения подобных киберугроз. Источник: vk.com Комментарии: |
|