NVIDIA представила нейросеть NVLM 1.0, которая понимает мемы |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-09-19 08:30 Компания NVIDIA анонсировала собственную мультимодальную большую языковую модель (LLM) с незамысловатым названием NVLM 1.0 (NVIDIA Vision Language Model). В ходе первых тестов она хорошо справилась с визуальными задачами, а также показала своё понимание мемов и рукописного почерка, обогнав даже GPT-4o в одном из испытаний. Испытания в бенчмарке OCRBench подтвердили продвинутые возможности NVLM 1.0 по считыванию текста с картинки — в этой дисциплине нейросеть NVIDIA обошла GPT-4o. Кроме того, она хорошо показала себя в математических задачах, опередив Google Gemini и уступив всего 3 пункта Claude 3.5. Компания также подчеркнула способность нейросети выступать в роли «пояснительной бригады», рассказывая смысл мемов. Результаты тестирования различных LLM, включая собственную, компания опубликовала в виде сводной таблицы. Всего NVIDIA показала три модели со схожей архитектурой, но обладают разными особенностями. В частности, NVLM-D использует для картинок предобученный энкодер, который соединён с обычным двухслойным перцептроном. В свою очередь, NVLM-Х для обработки токенов изображения полагается на механизм ross-attention. Первая более экономна по части количества параметров, а NVLM-X расходует больше ресурсов GPU, но лидирует в обработке картинок в высоком разрешении. Модель NVLM-H стала чем-то средним между ними. Подробнее узнать о NVLM 1.0 (статья на английском языке) можно по этой ссылке, а ознакомиться с кодом — на Github. Источник: Источник: 4pda.to Комментарии: |
|