Apple подписала обязательство Белого дома по разработке безопасного, надёжного и заслуживающего доверия ИИ |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-08-06 11:16 Apple подписала добровольное обязательство американского правительства по разработке безопасного, надёжного и заслуживающего доверия искусственного интеллекта. Ранее аналогичное обязательство подписали 15 других разработчиков ИИ-сервисов, включая Amazon, Anthropic, Google, Inflection, Microsoft и OpenAI. Правила правительства по разработке генеративного ИИ были представлены в июле 2023 года. В то время Apple не раскрывала, насколько глубоко она планирует внедрить ИИ в iOS, поэтому не подписывала обязательство. Тем не менее, компания заявила, что делает ставку на ИИ, в ходе WWDC в июне. Обязательство требует, чтобы разработчики ИИ проводили проверку безопасности моделей перед запуском с использованием Red Team и делились результатами с общественностью. Тестирование должно охватывать риски для общества и национальной безопасности, такие как разработка биологического оружия, кибератаки и так далее. Информацией о рисках ИИ компании обязуются делиться с друг другом и с регуляторами. Второе требование заключается в том, чтобы разработка ИИ-моделей велась в безопасных средах, и доступ к весам моделей был у как можно меньшего числа сотрудников. Наконец, компании обязуются разрабатывать системы маркировки контента, такие как водяные знаки, чтобы пользователи могли определять контент, созданный ИИ. Источник: habr.com Комментарии: |
|