Liquid AI выкатили LFM2.5-VL-450M - vision-language модель, заточенную под работу на edge-устройствах в реальном времени

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



Картинка 512?512 обрабатывается за ~240мс прямо на девайсе. Этого хватает, чтобы рассуждать над каждым кадром видеопотока в 4 FPS - причем с пониманием контекста, а не просто детекцией объектов.

Ключевая идея: один инференс-пасс заменяет классическую связку детектор - классификатор - эвристики. Те самые multi-stage пайплайны, которые в продакшене до сих пор ломаются, тормозят и больно поддерживаются.

Что нового в релизе: bounding box prediction (81.28 на RefCOCO-M), мультиязычное визуальное понимание на 8 языках (MMMB подняли с 54.29 до 68.09), поддержка function calling (BFCLv4).

Работает на Jetson Orin, Samsung S25 Ultra, AMD 395+ Max. Веса открыты, облако не нужно.

Веса на HuggingFace, блог и playground - в треде Liquid AI.

huggingface.co/spaces/LiquidAI/LFM2-VL-WebGPU


Телеграм: t.me/ainewsline

Источник: vk.com

Комментарии: