Новая нейросеть Alibaba обошла GPT-4 в бенчмарке

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-01-29 14:15

ИИ проекты

Компания Alibaba выпустила сразу две новые ИИ-модели с открытыми исходниками: Qwen2.5-VL и Qwen2.5-14B-Instruct-1M. Они позиционируются как универсальные решения для работы с текстом, изображениями и видео, при этом одна из нейросетей способна «переварить» текстовый запрос огромного объёма.

Судя по результатам тестирования в бенчмарке RULER, Qwen2.5-14B-Instruct-1M превосходит модели OpenAI GPT-4o mini, GPT-4, Llama-3.1-70B-Instruct, Llama-3-8B-Instruct-Gradient-1048k и GLM4-9b-Chat-1M. Аналитики связывают это с огромным контекстным окном в 1 млн токенов, которое позволяет моделям работать в реальном времени, например, с книгой. Для сравнения: аналогичный показатель GPT-4o mini составляет всего 128 000 токенов.

Alibaba

Мультимодальная модель Qwen2.5-VL умеет принимать на вход документы, картинки и видео длительностью более часа и обладает функциями ИИ-агента, подобно OpenAI Operator. Детали её работы в таком режиме пока не уточняются.

По словам разработчиков, по качеству работы нейросеть обходит Anthropic Claude 3.5 Sonnet, Google Gemini 2.0 Flash и GPT-4o. В частности, она умеет распознавать данные в составе графиков и диаграмм, распознавать фрагменты фильмов и сериалов и отвечать на сложные вопросы.

Найти все новые модели можно в репозитории Qwen на сайте HuggingFace.

Источник: the-decoder.com


Источник: 4pda.to

Комментарии: