Разработка ученых ЛЭТИ обеспечит применение машинного обучения к конфиденциальным данным без утечек |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2022-08-10 02:43
Исследователи СПбГЭТУ «ЛЭТИ» разработали библиотеку федеративного обучения, которая позволит безопасно анализировать конфиденциальную информацию методами машинного обучения.
Проблемы использования и защиты конфиденциальных данных являются важными вопросами в области применения технологий искусственного интеллекта и методов машинного обучения. «Крупные технологические компании собирают и анализируют большие данные пользователей в маркетинговых, научных, социологических и других целях. Одновременно с этим растет число взломов и утечек собираемых данных. Кроме того, увеличивается трафик передаваемых данных, а также требования к ресурсам компаний для анализа постоянно растущего объема», – рассказывает декан факультета компьютерных технологий и информатики (ФКТИ) СПбГЭТУ «ЛЭТИ» Иван Иванович Холод. Актуальным направлением в сфере защиты данных является федеративное обучение (ФО) – методика заключения модели в защищенную среду и ее обучение без перемещения информации на другие сервера. Такая технология позволяет устройству хранить личные и локальные данные, а также обучать необходимый алгоритм под конкретную задачу и условия эксплуатации. Под эту методику ученые СПбГЭТУ «ЛЭТИ» разрабатывают специальные компоненты для быстрого прототипирования и создания систем анализа конфиденциальной информации – фреймворки. Проект «Фреймворк для разработки систем анализа конфиденциальной информации» откроет новые возможности для создания систем анализа конфиденциальной информации из разных, территориально распределенных источников, включая операторов и владельцев данных, без передачи третьим лицам с использованием технологии федеративного обучения.
Технологии федеративного обучения применяются в медицине для анализа информации о пациентах, в банковской сфере для анализа и прогнозирования кредитоспособности клиентов, в университетах для построения персональных траекторий образования с использованием искусственного интеллекта, а также в других областях человеческой жизни, где может присутствовать конфиденциальная информация о пользователях. Разрабатываемый фреймворк будет включать в себя программные модули управления данными, управления реестром данных, анализа, обучения на стационарном и на мобильном клиенте и конструктор моделей, обеспечивающий интерфейс аналитика. Эти модули позволят ускорить и снизить стоимость разработки систем, использующих технологию ФО.
Сейчас проект находится на стадии утверждения прототипа пользовательского интерфейса, далее будут спроектированы и разработаны необходимые модули. В сентябре планируется создание компании и подписание лицензионного соглашения, а к декабрю 2022 года ученые планируют зарегистрировать готовый фреймворк. По словам разработчиков, к изобретению уже проявили интерес Инновационный центр «Сколково», банк «ВТБ», Комитет по труду и занятости населения Санкт-Петербурга. Проект «Фреймворк для разработки систем анализа конфиденциальной информации» поддержан грантом конкурса научно-исследовательских, опытно-конструкторских и технологических проектов 2022 года в размере 2 миллионов рублей. Источник: today.etu.ru Комментарии: |
|