Google представила новый ИИ для перевода 55 языков |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-19 14:02 ИИ проекты, алгоритмы машинного обучения, проблемы машинного перевода Google представила серию открытых моделей машинного перевода под названием TranslateGemma, специально разработанных для эффективной мультиязычной коммуникации в различных условиях эксплуатации и на разном оборудовании. Основанные на архитектуре Gemma 3, эти модели обеспечивают высокое качество автоматического перевода при сниженной нагрузке на вычислительные ресурсы. Особенности TranslateGemma выпускается в трёх версиях – с 4, 12 и 27 миллиардами параметров, каждая из которых поддерживает 55 языков, включая как широко распространённые, так и малоресурсные языковые пары. В Google утверждают, что модели оптимизированы для сбалансированного соотношения скорости, точности и энергоэффективности, что позволяет применять их в самых разных сценариях – от мобильных решений и edge-устройств до облачных сервисов. По результатам тестирования на бенчмарке WMT24++ модель TranslateGemma 12B продемонстрировала более высокое качество перевода по сравнению с базовой моделью Gemma 3 27B, несмотря на меньший размер. Версия с 4 млрд параметров ориентирована на ресурсоограниченные платформы и предлагает высокую скорость обработки и низкую задержку без существенной потери качества. Обучение моделей TranslateGemma проходит в два этапа. Первый этап включает контролируемую тонкую настройку на основе смешанных датасетов, состоящих из переводов, выполненных человеком, и синтетических данных. Затем следует обучение с подкреплением, ориентированное на метрики качества оценки. По заявлению Google, такая методология способствует более точному пониманию контекста и повышению плавности перевода на разных языках. В отличие от чисто текстовых решений, TranslateGemma сохраняет способность работать с мультимодальными данными, унаследованную от Gemma 3. Пилотные испытания показали высокую эффективность при переводе текста, встроенного в изображения, несмотря на отсутствие специализированного обучения мультимодальным задачам. Модели адаптированы под разные сценарии использования: версия 4B предназначена для мобильных устройств, 12B – для ноутбуков, а 27B – для облачных вычислительных систем. Сроки выхода TranslateGemma доступна в формате открытых моделей на платформах Kaggle, Hugging Face и Vertex AI от Google Cloud. В компании отмечают, что релиз ориентирован на поддержку исследователей и разработчиков, занимающихся созданием многоязычных систем, автоматизацией переводческих процессов и обеспечением языковой доступности в условиях ограниченных вычислительных ресурсов. Источник: vk.com Комментарии: |
|