ИИ, война и мир |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-03-01 10:57 3 января 2026 года спецназ США провёл операцию в Каракасе, в результате которой был задержан президент Венесуэлы Николас Мадуро. По данным The Wall Street Journal, при планировании или сопровождении операции использовалась модель Claude от компании Anthropic, развёрнутая через платформу Palantir. Это первый известный случай применения коммерческой ИИ-модели в засекреченной военной операции США. Операция в Венесуэле стала причиной публичного конфликта между Пентагоном и Anthropic. Компания, узнав о возможном применении Claude, обратилась к представителям Palantir за разъяснениями. Это привело к разбирательству с Министерством войны. Пентагон потребовал исключить из контракта ограничения на использование ИИ для массовой слежки и полностью автономных вооружений. Anthropic отказалась, сославшись на то, что текущие модели недостаточно надёжны для принятия летальных решений без участия человека. Министр обороны Пит Хегсет назвал компанию угрозой для цепочки поставок и предписал всем подрядчикам прекратить использование продуктов Anthropic. Дональд Трамп допустил возможность уголовного преследования. Контракт стоимостью до 200 млн долларов был аннулирован. В течение нескольких часов после этого OpenAI заключила с Пентагоном соглашение на схожих условиях. Гендиректор Сэм Альтман заявил, что разделяет позицию Anthropic по вопросам слежки и автономного оружия, однако компания нашла формулировки, устроившие военных. Согласно договорённостям, OpenAI самостоятельно выстраивает систему технических ограничений, а Пентагон не вправе принуждать модель к выполнению отклонённых задач. Google и xAI Илона Маска также сохраняют действующие контракты с ведомством. В России взаимодействие ИИ и власти идёт по своему сценарию. Сегодня на повестке дня стоят требования Минцифры по обязательной сертификации систем для критической инфраструктуры через ФСТЭК и ФСБ, а также требование раскрывать обучающие датасеты. Сертификация выглядит логично: это подготовка к государственному внедрению технологии. Однако раскрытие датасетов, по мнению участников рынка, может стать инструментом давления в пользу правообладателей, по сути, механизмом непрозрачного давления на отрасль. В этом кроется более широкая проблема: регулирование на столь раннем этапе рискует затормозить то, что ещё толком не успело вырасти. Своих моделей уровня OpenAI для армии или спецслужб в России нет. YandexGPT и GigaChat хороши для своих ниш, но не для планирования операций вроде венесуэльской. Пока американцы выясняют, можно ли доверить алгоритму захват президента другой страны, российские разработчики вынуждены думать о том, как вписать модели в законодательную базу, а не об улучшении алгоритмов. Источник: vk.com Комментарии: |
|