Одна ML-модель — и много учителей

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


На VK JT анонсировали решение на базе вертикального федеративного обучения, которое позволит компаниям совместно обучать ИИ-модели без обмена данными.

Что это значит? В первую очередь — куда более эффективное обучение любой ML-модели, которая будет получать данные сразу из нескольких источников, заинтересованных в её эффективности. Это могут быть самые разные данные с разных серверов, но ML-модель получит промежуточные зашифрованные вычисления, так что исходники останутся приватными.

Такие новости — от руководителя группы Data Science в VK Predict Артёма Агафонова. Совсем скоро поделимся записью трансляции — можно будет узнать подробности.


Источник: vk.com

Комментарии: