Google окончательно убил OpenAI? Как Gemma 4 меняет правила игры |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-04-16 15:59 Буду честен. Я перестал следить за Gemma после второй версии. Не потому что она была плохой — просто она никогда не воспринималась как серьёзный конкурент китайским гигантам открытого ИИ: DeepSeek, Qwen — моделям, которые разработчики действительно разворачивали в продакшене. Gemma была моделью, которую ты один раз пробовал на Kaggle, а потом забывал. Сегодня Google всё изменил. Полностью. Gemma 4 вышла 2 апреля 2026 года. И технический директор Hugging Face Жюльен Шомон написал об этом с буквальными эмодзи-огоньками, назвав это «ЭКСТРЕННОЙ НОВОСТЬЮ». Когда CTO платформы, которая хостит все открытые модели на планете, говорит, что Google вернулся в игру, — стоит обратить внимание. Что такое Gemma 4? Gemma 4 — это новейшее семейство моделей с открытыми весами от Google DeepMind. Построено на тех же исследованиях и технологиях, что и Gemini 3 — их проприетарная флагманская модель. Четыре размера моделей. Четыре сценария развёртывания:
Все четыре модели обрабатывают изображения и видео. Младшие модели E2B и E4B также поддерживают нативный аудиовход: распознавание речи прямо на устройстве, без облака. Контекстное окно — до 128K токенов для edge-моделей и 256K для старших. Это целая кодовая база в одном промпте. Бенчмарки Вот тут всё становится серьёзно. Данные из официальной карточки модели Gemma 4, варианты, дообученные на инструкциях (instruction-tuned): Текстовые бенчмарки ![]() Бенчмарки по зрению ![]() Длинный контекст ![]() Позвольте выделить цифры, которые имеют наибольшее значение.
Модель MoE особенно интересна. При общем объёме 26 млрд параметров и лишь 3,8 млрд активных при инференсе она набирает 82,3 % на GPQA Diamond. Работает на скорости, близкой к 4-миллиардной модели, а выдаёт интеллект, близкий к 31-миллиардной. Кстати, об инструментах. Если вам нужен доступ ко всем ключевым моделям — Claude, GPT, Gemini — загляните на BotHub. ![]() Для доступа не требуется VPN, можно использовать российскую карту.
Как Gemma 4 выглядит на фоне флагманов? ![]() Цифры в изоляции ничего не значат. Поэтому давайте поставим Gemma 4 рядом с проприетарными моделями, которые все реально используют: Claude Opus 4.6, GPT-5.2, а также открытым гигантом Kimi K2.5. Важная оговорка, прежде чем углубимся: это не идеально корректное сравнение. Gemma 4 31B — это 31 миллиард параметров. Claude Opus 4.6 и GPT-5.2 — проприетарные модели с нераскрытым количеством параметров, почти наверняка сотни миллиардов или больше. Kimi K2.5 — триллион параметров всего (32 млрд активных). Сам факт, что Gemma 4 вообще участвует в одном разговоре с этими моделями, — и есть главная новость. Рассуждения: GPQA Diamond (наука уровня PhD) ![]() Gemma 4 31B набирает 84,3 % на научных вопросах уровня PhD. Это отстаёт от Claude Opus 4.6 (91,3 %) и GPT-5.2 (92,4 %) примерно на 7–8 пунктов. Но вот в чём дело: те — массивные проприетарные модели, работающие на серверных фермах. Gemma 4 работает на вашем ноутбуке. И она опережает Claude Sonnet 4.6 (74,1 %) — модель, которую многие разработчики используют ежедневно, — более чем на 10 пунктов. Математика: AIME (олимпиадная математика) ![]() Примечание: Gemma 4 отчитывается по AIME 2026 (более сложный набор задач), тогда как большинство других моделей оценивались на AIME 2025. Даже с учётом этого, 89,2 % на олимпиадной математике от 31-миллиардной модели — это выдающийся результат. GPT-5.2 и Claude Opus 4.6 достигают почти идеальных баллов, но это проприетарные флагманы с на порядки бо?льшим объёмом вычислений. Kimi K2.5 набирает 95,8 %, но при триллионе параметров. Знания: MMLU Pro (вопросы уровня магистратуры) ![]() Gemma 4 31B набирает 85,2 % на MMLU Pro. Это почти вплотную к Kimi K2.5 (87,1 %), несмотря на 30-кратно меньшее общее количество параметров. Она также, по всей видимости, конкурирует с Claude Opus 4.6 или даже немного опережает его заявленный результат MMLU Pro — примерно 82 %. Программирование: SWE-Bench и LiveCodeBench ![]() Gemma 4 показывает 80,0 % на LiveCodeBench v6 и Codeforces ELO 2150. Хотя прямые результаты SWE-Bench Verified пока недоступны, уровень программирования явно конкурентоспособен на уровне флагманов. Результат LiveCodeBench ставит 31-миллиардную модель в один ряд с Kimi K2.5, у которой, напомню, в 32 раза больше параметров. Зрение: MMMU Pro (мультимодальные рассуждения) ![]() По мультимодальным визуальным рассуждениям Gemma 4 31B идёт практически вровень с Claude Sonnet 4.6. Для открытой 31-миллиардной модели это исключительный результат. История об интеллекте на параметр Вот таблица, которая рассказывает настоящую историю. Здесь речь об эффективности: ![]() Обратите особое внимание на модель 26B MoE. Она активирует всего 3,8 миллиарда параметров на токен. Это примерно вычислительный «отпечаток» маленькой модели. И она набирает 82,3 % на GPQA Diamond и 82,6 % на MMLU Pro. Kimi K2.5 активирует 32 млрд параметров на токен при триллионе суммарных, получая 87,6 % GPQA / 87,1 % MMLU Pro. Это примерно на 5 пунктов выше — при 8-кратно бо?льшем количестве активных параметров за шаг инференса и на порядок бо?льших требованиях к хранилищу. Проприетарные модели по-прежнему побеждают по абсолютным баллам. Это ожидаемо. Но разрыв стремительно сокращается, а экономика развёртывания Gemma 4 — из совершенно другой вселенной. Никаких расходов на API. Данные не покидают вашу машину. Никакой привязки к вендору. Честный итог Gemma 4 не обгоняет Claude Opus 4.6 или GPT-5.2 по чистым бенчмаркам. Кто утверждает обратное — врёт. Но это и не тот вопрос, который нужно задавать. Правильный вопрос: какая лучшая модель, которую я могу запустить локально, на своём железе, под полностью свободной лицензией, с нулевыми расходами на API? И по этому вопросу Gemma 4 — очень сильный кандидат. Она уступает 7–8 пунктов на GPQA Diamond и примерно 4–5 пунктов на MMLU Pro лучшим проприетарным моделям, но взамен предлагает то, чего те никогда не смогут дать: полное владение и нулевую предельную стоимость инференса. Для многих реальных применений этот компромисс не просто приемлем. Он предпочтителен. Почему Apache 2.0 меняет всё Предыдущие модели Gemma выходили под собственной лицензией Google — Gemma License. Она была разрешительной, да. Но не по-настоящему открытой. Gemma 4 выходит под Apache 2.0 — той же лицензией, что Kubernetes, TensorFlow и Apache Spark. Это колоссальное событие. Сооснователь Hugging Face Клеман Делланге назвал это «огромной вехой». Никаких ограничений на использование. Никаких требований отчётности. Полное коммерческое использование. Форкайте, дообучайте, разворачивайте как хотите. Для стартапов и предприятий, создающих ИИ-продукты: это устраняет одно из главных препятствий на пути к внедрению Gemma. Модель — ваша. Данные — ваши. Развёртывание — ваше. Настоящая история: Google против Китая в мире открытого ИИ Позвольте дать стратегический контекст. Посмотрите на рейтинг открытых моделей Arena AI до сегодняшнего дня. Верхние строчки занимали китайские модели: DeepSeek, Qwen и их производные. Присутствие США в открытом ИИ в основном обеспечивалось Llama от Meta и Nemotron от Nvidia. Серия Gemma от Google набрала 400 миллионов загрузок. Более 100 000 вариантов от сообщества. Но по фактическому использованию (данные OpenRouter рассказывают эту историю) Gemma стабильно отставала от Llama и DeepSeek. Gemma 4 — ответ Google. Модель 31B сейчас на 3-м месте в рейтинге Arena AI. MoE 26B — на 6-м. Обе превосходят модели, которые в 20 раз крупнее. Это не просто выпуск модели. Это Google, говорящий: мы конкурируем за экосистему открытого ИИ. На этот раз серьёзно. Запуск на локальной машине Вот тут начинается практика. Вот как запустить Gemma 4 на своём железе прямо сегодня: Сначала обновите llama.cpp: Если у вас 16 ГБ RAM/VRAM (MacBook, большинство ноутбуков): Если у вас 24 ГБ+ RAM/VRAM (MacBook Pro, RTX 3090): Если у вас 32 ГБ VRAM (RTX 5090): Неквантованные веса модели 31B Dense помещаются на один 80-гигабайтный NVIDIA H100. Квантованные версии работают на потребительских GPU. Поддержка с первого дня по всей экосистеме: Hugging Face Transformers, vLLM, llama.cpp, MLX, Ollama, LM Studio, Unsloth, SGLang, NVIDIA NIM и другие. Что отличает архитектуру Gemma 4 Несколько конструктивных решений выделяются:
«Геммаверс» — это реальность Цифры говорят сами за себя. 400 миллионов загрузок. Более 100 000 вариантов от сообщества. Специализированные производные:
Одна исследовательская группа даже обучила Gemma 4 управлять автомобилем в симуляторе CARLA, используя мультимодальные ответы с вызовом инструментов: модель видит дорогу через камеру, принимает решения и учится на результатах. Вот так выглядит здоровая экосистема открытого кода. Базовая модель достаточно хороша, чтобы люди создавали на её основе по-настоящему новаторские вещи. Моё честное мнение Я начинал эту статью как скептик. Меня уже обжигали обещания Google в области открытых моделей. Но улучшения бенчмарков здесь не инкрементальные. Перейти от Codeforces ELO 110 к 2150 за одно поколение — беспрецедентно. Скачок AIME с 20,8 % до 89,2 % — это не маркетинговая мишура: это фундаментально другая модель. Лицензия Apache 2.0 снимает моё главное возражение. Требования к железу разумны. Поддержка экосистемы — всесторонняя с первого дня. Лучшая ли это открытая модель в мире? 31B занимает 3-е место в Arena AI. Не первое. У DeepSeek и Qwen по-прежнему сильные предложения. Но Google теперь по-настоящему конкурентоспособен в этом пространстве. Для всех, кто создаёт локальные ИИ-приложения, агентные рабочие процессы или интеллект на устройстве: Gemma 4 заслуживает серьёзного рассмотрения. Особенно 26B MoE. Эта модель — тёмная лошадка данного релиза. Война в мире открытого ИИ стала намного интереснее. Телеграм: t.me/ainewsline Источник: habr.com Комментарии: |
|