США использовали LLM Claude в операции по захвату Мадуро — WSJ |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-02-16 11:34 Большая языковая модель (LLM, так называемый ИИ) Claude, разработанная компанией Anthropic AI, применялась Пентагоном во время операции по захвату президента Венесуэлы Николаса Мадуро, 14 февраля пишет газета The Wall Street Journal со ссылкой на источники. По данным издания, спецоперация включала в себя удары по ряду целей в Каракасе, а использование ИИ стало возможным благодаря сотрудничеству Anthropic с Palantir Technologies — фирмой, предоставляющей аналитические инструменты для американских силовых структур. Источники утверждают, что Claude применялся в рамках поддержки действий специального назначения. Использование модели вызвало обеспокоенность у руководства Anthropic. Глава компании Дарио Амодеи, по информации WSJ, ранее публично выражал тревогу по поводу применения искусственного интеллекта в военных и разведывательных целях. Эти опасения, как отмечается, привели администрацию США к рассмотрению вопроса о расторжении контракта на $200 млн (15,5 млрд руб.), заключенного с Anthropic в прошлом году. Газета указывает, что Anthropic стала первой компанией, чьи ИИ-модели могли использоваться Пентагоном в рамках секретных операций. При этом, по данным WSJ, для несекретных задач в той же операции могли применяться и другие ИИ-инструменты — от управления дронами до автоматизации документооборота. «Мы не можем комментировать, использовался ли Claude или любая другая модель ИИ для каких-либо конкретных операций, секретных или иных», — заявил представитель Anthropic. В компании подчеркнули, что любое использование их моделей должно соответствовать внутренним правилам, и добавили, что работают с партнерами над соблюдением этих норм. Источник: rossaprimavera.ru Комментарии: |
|