Ollama запускает поддержку мультимодальных моделей

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-05-20 13:43

ИИ проекты

Платформа Ollama представила новый движок с полной поддержкой мультимодальных ИИ-моделей, которые могут работать как с текстом, так и с изображениями.

Уже доступны:

• LLaMA 4,

• Gemma 3,

• Qwen 2.5 VL,

• Mistral Small 3.1 и другие модели. (https://ollama.com/search?c=vision)

Что нового:

• Каждая модель теперь полностью автономна — это упрощает обновления и интеграцию

• Улучшена точность визуального анализа благодаря передаче метаданных и поддержке больших изображений

• Оптимизирована работа с памятью: кэшируются изображения, улучшен KV-кэш, модели работают быстрее и стабильнее

Этот шаг делает Ollama одной из первых платформ, предлагающих локальную поддержку мультимодальных моделей с открытым исходным кодом.

Подробнее (https://ollama.com/blog/multimodal-models)


Источник: ollama.com

Комментарии: