Компания Tenable Research обнаружила уязвимости в инструментах искусственного интеллекта Google Gemini, которые затрагивали такие функции, как облачный помощник Cloud Assist, персонализация поиска и

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Ошибки в работе ИИ могли позволить злоумышленникам получить доступ к системным функциям, а также к личной информации и данным о местоположении пользователей. Несмотря на то что Google быстро устранила найденные уязвимости, этот инцидент подчеркивает, что даже продвинутые интеллектуальные помощники могут стать как мишенями, так и инструментами для атак. Создается впечатление, что ИТ-гигант в какой-то мере сознательно экономит на тестировании безопасности, полагаясь на независимые исследования, которые выявляют уязвимости безвозмездно.

На мой взгляд, данная ситуация вызывает серьезные опасения. Безопасность технологий, особенно таких как искусственный интеллект, не должна оставаться на второстепенном плане. Инвестиции в тестирование и укрепление систем безопасности должны быть приоритетом для компаний, разрабатывающих такие решения. Пользователи доверяют своим данным, и компании обязаны делать все возможное, чтобы защитить их от потенциальных угроз.


Источник: vk.com

Комментарии: