GLM-5 выкатили в опен-сорс |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-02-12 10:01 Не прошло и суток с , а Zhipu AI выложила веса (https://huggingface.co/zai-org/GLM-5) GLM-5 и любезно поделилась (https://z.ai/blog/glm-5) проведенными бенчмарками. Архитектура пятого поколения построена на MoE: 744 млрд. общих параметров при активных 40 млрд. Модель учили на 28,5 трлн. токенов и она получила контекстное окно в 200 тыс. токенов. GLM-5 ориентирован на 5 доменов: кодинг, рассуждение, агентные сценарии, генеративное творчество и работа с длинным контекстом. Для эффективной обработки длинных последовательностей интегрирован механизм Dynamically Sparse Attention от DeepSeek, он позволяет избежать квадратичного роста копьюта без потери качества. По бенчмаркам GLM-5 занимает 1 место среди open-source моделей: 77,8% на SWE-bench Verified, лидирует на Vending Bench 2, BrowseComp и MCP-Atlas, а в задачах агентного кодирования и рассуждений вплотную подбирается к Claude Opus 4.5 и GPT-5.2. Вместе с моделью, авторы предлагают Z Code (https://zcode.z.ai/) — собственную агентную IDE с поддержкой параллельной работы нескольких агентов над одной задачей. Локальный деплой поддерживается vLLM и SGLang, а также non-NVIDIA чипами: Huawei Ascend, Moore Threads, Cambricon (через квантование и оптимизацию ядер). Если вам негде поднять модель локально, она доступна через платформу chat.z.ai (https://chat.z.ai/), API (https://docs.z.ai/guides/llm/glm-5) и на OpenRouter (https://openrouter.ai/z-ai/glm-5). Квантованные версии пока сделали (https://huggingface.co/unsloth/GLM-5-GGUF) только Unsloth, традиционно - полный набор от 1-bit до BF16. [спойлер: И да, стэлс-модель PonyAlpha на OpenRouter - это она и была.] Лицензирование: MIT License. Статья (https://huggingface.co/unsloth/GLM-5-GGUF) Модель (https://huggingface.co/zai-org/GLM-5) GGUF (https://huggingface.co/unsloth/GLM-5-GGUF) GitHub (https://github.com/zai-org/GLM-5) Источник: github.com Комментарии: |
|