Совместная инициатива США и их партнеров по управлению рисками ИИ в критической инфраструктуре |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-12-28 11:37 CISA (Агентство по кибербезопасности и защите инфраструктуры США - Cybersecurity and Infrastructure Security Agency) и Австралийский центр кибербезопасности (ACSC - Australian Cyber Security Centre) при поддержке федеральных и международных партнеров (включая NSA (Агентство национальной безопасности. National Security Agency), ФБР, канадские, немецкие, нидерландские, новозеландские и британские национальные центры кибербезопасности) выпустили совместное руководство по кибербезопасности для помощи субъектам критической инфраструктуры в безопасном внедрении искусственного интеллекта (ИИ) в операционные технологии (OT). В документе прописаны четыре ключевых принципа, которые позволят эффективно использовать преимущества ИИ, снижая связанные с ним риски: 1) Принцип понимания ИИ. 2) Принцип оценки применения ИИ в ОТ. 3) Принцип создания систем управления ИИ и обеспечения гарантий по его использованию. 4) Принцип внедрения мер безопасности в системы ИИ и OT. Авторы руководства утверждают, что после появления ChatGPT в ноябре 2022 года искусственный интеллект стал неотъемлемой частью многих сфер общественной жизни. Однако внедрение технологий ИИ в ОТ включает в себя риски, требующие пристального контроля для обеспечения безопасности, надежности и устойчивости ОТ-систем. В документе прописывают такие риски как изменение привычных рабочих процессов OT и возможность обхода мер безопасности. Особое внимание в руководстве уделяется машинному обучению, языковым моделям и ИИ-агентам из-за их специфических угроз в области безопасности. Источник: vk.com Комментарии: |
|