Ollama запускает поддержку мультимодальных моделей |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-05-20 13:43 Платформа Ollama представила новый движок с полной поддержкой мультимодальных ИИ-моделей, которые могут работать как с текстом, так и с изображениями. Уже доступны: • LLaMA 4, • Gemma 3, • Qwen 2.5 VL, • Mistral Small 3.1 и другие модели. (https://ollama.com/search?c=vision) Что нового: • Каждая модель теперь полностью автономна — это упрощает обновления и интеграцию • Улучшена точность визуального анализа благодаря передаче метаданных и поддержке больших изображений • Оптимизирована работа с памятью: кэшируются изображения, улучшен KV-кэш, модели работают быстрее и стабильнее Этот шаг делает Ollama одной из первых платформ, предлагающих локальную поддержку мультимодальных моделей с открытым исходным кодом. Подробнее (https://ollama.com/blog/multimodal-models) Источник: ollama.com Комментарии: |
|