Microsoft представила инструменты для этичного использования машинного обучения |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2020-05-19 19:20 Они позволят разработчикам лучше понимать поведение моделей машинного обучения и контролировать их. Microsoft представила инструменты ответственного использования машинного обучения, которые позволят корректировать проблемы с нейросетями. Система поможет исправить нерепрезентативность выборки, незазищённость данных и не только. Об этом TJ сообщили в компании. Как отметил вице-президент Microsoft Azure AI Эрик Бойд, от разработчиков всё чаще требуют создание ИИ-систем, работу которых легко объяснить и которые соответствуют нормативным требованиям. Но эксперты в области машинного обучения не всегда способны сами оценить корректность работы систем. Чтобы решить проблему, Microsoft запустила инструменты, которые позволят лучше понимать поведение моделей машинного обучения, обеспечивать конфиденциальность данных и избежать некорректной выборки. Новые функции будут доступны в сервисе Azure Machine Learning, а также в виде открытого кода на GitHub. За понимание модели отвечает инструмент InterpretML. Оценку и повышение объективности ИИ-систем обеспечивает Fairlearn — он позволяет разработчикам проверить эффективность модели на группах людей разного пола, цвета кожи, возраста и по другим характеристикам. Инструмент WhiteNoise обеспечивает дифференциальную приватность. Все инструменты могут экспериментировать с открытым кодом на GitHub и использовать его в Azure Machine Learning. Microsoft привела примеры необходимости новых инструмнетов. В 2016 году старший исследователь лаборатории компании в Рэдмонде Марко Тулио Рибейро представил научный доклад, в котором объяснил принцип работы классификаторов моделей компьютерного зрения. Чтобы показать работу технологии он обучил систему предсказывать, что на фото со снежным фоном будет изображён «волк», а на фото без снег — «хаски». После этого он применил модель на изображениях волков в заснеженных пейзажах, а хаски без снега и показал результаты экспертам, которые не знали, на чём была обучена система. Разработчик спросил у специалистов, доверяют ли они модели и как она строит прогнозы. Меньше половины из экспертов упомянули фон в качестве возможного фактора, и никто не указал снег. Остальные были уверены в системе и считали, что она обращала внимание на заострённые зубы.
Телеграм: t.me/ainewsline Источник: tjournal.ru Комментарии: |
|