![]() |
![]() |
![]() |
|||||
![]() |
Data Science и конференция в тропиках |
||||||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2019-06-14 11:08 Статьи про компьютерное зрение, интерпретируемость, NLP – мы побывали на конференции AISTATS в Японии и хотим поделиться обзором статей. Это крупная конференция по статистике и машинному обучению, и в этом году она проходит на Окинаве – острове недалеко от Тайваня. В этом посте Юлия Антохина (Yulia_chan) подготовила описание ярких статей из основной секции, в следующем вместе с Анной Папета расскажет про доклады приглашенных лекторов и теоретические исследования. Немного расскажем и про то, как проходила сама конференция и про “неяпонскую” Японию.
![]() Yuchen Zhang (Microsoft); Percy Liang (Stanford University) ? Статья ? Код Начнем со статьи про защиту от состязательных атак (adversarial attacks) в компьютерном зрении. Это целенаправленные атаки на модели, когда цель атаки – заставить модель ошибиться, вплоть до заранее заданного результата. Алгоритмы компьютерного зрения могут ошибаться даже при несущественных для человека изменениях исходной картинки. Задача актуальна, например, для машинного зрения, которое в хороших условиях распознает дорожные знаки быстрее человека, но при атаках работает гораздо хуже. Adversarial Attack наглядно ![]() Метод В статье авторы предлагают метод, не требующий перетренировки модели и работающий для Whitebox атак. Цель – уменьшить расстояние Кульбака — Лейбнера между обычными примерами и “испорченными” с помощью случайного преобразования. Оказывается, достаточно добавить случайный шум, а затем случайным образом дискретизировать цвета. То есть на вход алгоритму подается “ухудшенного” качества изображение, но все же достаточного чтобы алгоритм работал. А за счет случайности есть потенциал противостоять Whitebox атакам. Слева – оригинальная картинка, посередине – пример кластеризации цветов пикселей в Lab пространстве, справа – картинка в нескольких цветах (Например, вместо 40 оттенков голубого — один) ![]() Этот метод сравнивался с самыми сильными атаками на с NIPS 2017 Adversarial Attacks & Defenses Competition, и он показывает в среднем лучшее качество и не переобучается под “атакующего”. Сравнение самых сильных методов защиты против самых сильных атак на NIPS Competition ![]() ![]() Sunipa Dev (University of Utah); Jeff Phillips (University of Utah) ? Статья «Модный» доклад был про Unbiased Word Vectors. В данном случае под Bias имеются ввиду смещения по полу или национальности в представлениях слов. Против такой «дискриминации» могут выступить какие-либо регуляторы, и поэтому ученые из университета Юты решили изучить возможности «уравнивания в правах» для NLP. В самом деле, почему мужчина не может быть «гламурным», а женщина «Data Scientistом»? Original – результат, который получается сейчас, остальное – результаты работы unbiased алгоритма ![]() ![]() ![]() What made you do this? Understanding black-box decisions with sufficient input subsets Brandon Carter (MIT CSAIL); Jonas Mueller (Amazon Web Services); Siddhartha Jain (MIT CSAIL); David Gifford (MIT CSAIL) ? Статья ? Код раз и два Следующая статья рассказывает про алгоритм Sufficient Input Subset. SIS — это минимальные подмножества фичей, при которых модель выдаст определенный результат, даже если все остальные фичи обнулить. Это еще один способ как-то интерпретировать результаты сложных моделей. Работает и на текстах, и на картинках. Алгоритм поиска SIS подробно: ![]() ![]() ![]() ![]() Empirical Risk Minimization and Stochastic Gradient Descent for Relational Data Victor Veitch (Columbia University); Morgane Austern (Columbia University); Wenda Zhou (Columbia University); David Blei (Columbia University); Peter Orbanz (Columbia University) ? Статья ? Код В секции по оптимизации был доклад по Empirical Risk Minimization, где авторы исследовали способы применения стохастического градиентного спуска на графах. Например, при построении модели на данных соцсети можно использовать только фиксированные фичи профиля (количество подписчиков), но тогда теряется информация о связях между профилями (кто на кого подписан). При этом весь граф чаще всего сложно обрабатывать – например, он не помещается в память. Когда такая ситуация возникает на табличных данных, модель можно запустить на подвыборках. А как правильно выбрать аналог подвыборки на графе не было понятно. Авторы теоретически обосновали возможность использовать случайные подграфы как аналог подвыборок, и это оказалось «Not crazy idea». На Github есть воспроизводимые примеры из статьи, в том числе и пример с «Википедией». Category Embeddings на данных «Википедии» с учетов ее графовой структуры, выделенные статьи наиболее близки по теме к «Французским физикам»: ![]() Вообще доклад интереснее смотреть, скорее всего, тем, кто не занимается графовыми моделями, но хотел бы попробовать и интересуется, как правильно проверять гипотезы для графов. Как проходила сама конференция AISTATS 2019 — это трехдневная конференция на Окинаве. Это Япония, но по культуре Окинава ближе к Китаю. Главная торговая улица напоминает крошечный такой Майями, на улицах длинные машины, кантри–музыка, а отойдешь немного в сторону – джунгли со змеями, вывороченные тайфунами мангровые деревья. Местный колорит создает культура Рюкю – королевства, которое находилось на Окинаве, но сначала стало вассалом и торговым партнером Китая, а затем было захвачено японцами. А еще на Окинаве, видимо, часто проводят свадьбы, потому что очень много свадебных салонов, да и конференция проходила в помещении Wedding Hall. Ученых, авторов статей, слушателей и спикеров собралось больше 500 человек. За три дня можно успеть поговорить почти со всеми. Хотя конференция проходила «на краю света» — приехали представители со всего мира. Несмотря на широкую географию, оказалось, что интересы у всех нас схожие. Для нас стало неожиданностью, к примеру, что ученые из Австралии решают такие же Data Science-задачи и теми же методами, как и мы в нашей команде. А, ведь, почти на противоположных сторонах планеты живем… «Из индустрии» участников было не так много: Google, Amazon, МТС и еще несколько топовых компаний. Были представители японских компаний–спонсоров, которые в основном смотрели и слушали и, вероятно, кого-то хантили, несмотря на то, что «неяпонцам» работать в Японии очень непросто. Статьи, заявленные на конференцию по темам: ![]() Анонс: ![]() Источник: habr.com ![]() Комментарии: |
||||||