DeepSeek V4 ударил по фронтиру: открытая модель на 1.6 трлн параметров, которая может перекроить рынок ИИ |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-04-27 11:33 Прошлой ночью DeepSeek выкатил V4. Открытый исходник, открытые веса, фронтирный уровень и цена в разы ниже, чем у Opus 4.7 или GPT-5.5. Это куда более серьёзная история, чем релиз R1, после которого фондовый рынок просел почти на 20% буквально за ночь. Что под капотом. DeepSeek V4 Pro это MoE-модель с 1,6 триллиона параметров, из которых активны 49 миллиардов, а контекстное окно дотягивает до 1 миллиона токенов. V4 Flash попроще и заточен под массовые задачи: 284 миллиарда параметров суммарно и 13 миллиардов активных. Обе модели обучены примерно на 33 триллионах токенов. По бенчмаркам на агентный кодинг, MMLU Pro, GPQA Diamond и SWE-bench Verified V4 идёт ноздря в ноздрю с Opus 4.7 и GPT-5.5. Чуть позади, но именно чуть. И вот тут начинается интересное. Большинству реальных задач не нужен абсолютный фронтир. Подавляющая часть компаний не занимается передовой наукой и не пытается решить самые сложные алгоритмические головоломки в мире. Они просто ведут бизнес. Представьте, что вы CEO. Смотрите на GPT-5.5 по 30 долларов за миллион выходных токенов. Смотрите на Opus 4.7 примерно с такой же ценой. А потом видите DeepSeek в разы дешевле, причём он закрывает почти всё, что вам нужно. Открытый код, можно дофайнтюнить под себя, развернуть на своих серверах, контролировать поведение. Математика становится очевидной, и вопрос лишь один: зачем платить больше. Дальше начинается геополитика. Дженсен Хуанг неоднократно говорил, что Китай всё равно построит свои чипы и свои модели, так пусть лучше делают это на американском железе. Логика понятна. Но она работает и в обратную сторону. Если корпоративный сектор США строит ИИ-стратегию поверх китайских опенсорс-моделей, это уже серьёзный риск национальной безопасности. Поменяют архитектуру, выкатят жёсткую лицензию или просто перекроют доступ, и компания окажется в неприятной точке. Отдельная история про экспортный контроль. Работает он или нет. И да, и нет. Да, потому что DeepSeek сам признаёт дефицит вычислений: в их же whitepaper написано, что Pro-сервис будет ограничен по мощности до второй половины года, пока не развернут новые суперноды. Они физически не могут раздавать модель так, как хотели бы. Но и нет, потому что именно это ограничение заставило их вкладываться в алгоритмические оптимизации. В итоге появились трюки, которые позволяют тренировать и инферить V4 за долю обычной стоимости даже на урезанных GPU. Ещё одна тема это так называемый distillation hacking. Anthropic пару недель назад выпустил отчёт, а вчера подтянулось правительство США: они говорят про индустриальные масштабы дистилляции американских моделей со стороны зарубежных игроков, прежде всего Китая. Опасения справедливые. Но если вчитаться в сам отчёт Anthropic, у DeepSeek там зафиксировано 150 тысяч обменов. У Moonshot 3,4 миллиона. У MiniMax 13 миллионов. 150 тысяч это просто несопоставимо с тем уровнем качества, который выдаёт V4. Плюс ребята выложили подробный whitepaper, в котором по шагам расписали, как именно они дошли до такого результата. Версия про чистое воровство тут плохо стыкуется с фактами. Теперь общая картинка. В американский ИИ заливаются триллионы долларов. Это самая быстрая инфраструктурная стройка в истории. Под такие капексы нужен возврат. Если глобальный корпоративный спрос обходит закрытые американские модели стороной, потому что китайский опенсорс достаточно хорош и в разы дешевле, возврата не будет. А ставка фактически сделана на всю экономику. Есть и культурный слой. Соцсети в своё время изменили мир, и пришли они в основном из США. Это давало возможность задавать рамку дискуссии во многих странах. Теперь представьте обратную картину: половина мира работает поверх китайских моделей, и именно они определяют, что можно говорить, а что нельзя. Да, веса открыты, можно дообучить, но культурные особенности и встроенные приоритеты никуда не денутся, они уйдут в продакшн вместе с моделью. Это вопросы, на которые отрасли скоро придётся отвечать всерьёз. Что из этого следует. Первое, США нужно гораздо жёстче ставить на опенсорс. Фронтирные лаборатории к открытому коду относятся прохладно, исключение по сути только Google, и даже он выкладывает небольшие модели, не уровня DeepSeek V4. Второе, даже если ставка остаётся на закрытый код, OpenAI и Anthropic должны очень быстро дешеветь. Потому что американский корпоративный сектор уже считает экономику, и пока цифры не на их стороне. DeepSeek не догнал Америку по самому верху. Но они сделали достаточно хорошее, отдали бесплатно, и значительная часть американского бизнеса этим воспользуется. Телеграм: t.me/ainewsline Источник: x.com Комментарии: |
|