Наука молодая. Зачем ученые ИТМО следят за нами в соцсетях

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Ученые Университета ИТМО научили нейросеть определять профиль пользователя по его постам и подпискам. Что могут сказать о нас разработчики и чему нас самих может научить искусственный интеллект, рассказывает руководитель лаборатории «Машинное обучение» ИТМО и один из первых лауреатов премии Ильи Сегаловича Андрей Фильченков.

«Искусственный интеллект (ИИ) — это, простыми словами, попытка воспроизвести на компьютере сознание человека - то, как человек рассуждает, думает, другие высшие функции нервной системы. Эта идея возникла в 1950-е годы. Тогда казалось, что вот-вот, сейчас мы соберемся и сделаем это», — рассказал Андрей Фильченков.

С тех пор эта сфера привлекла много инженеров-романтиков. Сильного искусственного интеллекта, сравнимого с человеческим, пока так и не придумали. Зато слабый ИИ, способный решать узкие практические задачи, уже справляется со многими вопросами лучше людей. Например, находит рак легких по флюорографии, играет в шахматы, предсказывает аварии на сложном оборудовании.

«Мы занимаемся совершенно разными проблемами машинного обучения, не связанными ничем, кроме того, что это машинное обучение», — широко очертил круг проектов лаборатории Андрей.

Среди множества направлений есть и те, на которые делается особый фокус. Например, это доменная адаптация — приспособление уже обученного алгоритма к работе с похожими, но новыми наборами данных. Скажем, если программа обучена распознавать рак легких на снимках жителей Европы, она должна без ошибок работать и в Южной Америке, и в Полинезии, даже если вид легких у жителей других континентов немного отличается.

Или еще задача — как сделать машинное зрение устойчивым. Чтобы алгоритмы могли «смотреть» высокоразмерный медиафайл, при обработке изображения сжимаются и часть информации отсеивается. За счет этого искусственный интеллект можно обмануть: например, наложить на фотографию панды шумы, даже не видные глазу, — и нейросеть с вероятностью 99% распознает не панду, а гиббона. Это опасно: с помощью такого вредоносного воздействия можно обойти функцию Face ID в смартфоне или направить беспилотный автомобиль на встречную полосу.

Вокруг лаборатории уже сформировалась группа стартапов. Deflamel создает обложки для книг и музыкальных альбомов, помогая молодым и непрофессиональным авторам экономить на услугах дизайнеров. Somin.AI изучает целевую аудиторию брендов в соцсетях и позволяет эффективнее таргетировать рекламу.

При этом вопреки стереотипам больше половины аспирантов лаборатории — девушки. «Между гендерами нет никакой разницы в плане способностей, но есть проблема в плане стереотипов, уверенности в себе. Иногда у моих аспиранток проявляется установка, что "я девочка, я вот это не могу". Конечно, это культурные, социальные установки. Их можно преодолеть, но они все равно чувствуются», — говорит Андрей Фильченков.

Нужно ли бояться социальных рейтингов

Одно из магистральных направлений исследований лаборатории - определение профилей людей в социальных сетях. Искусственный интеллект может по косвенным признакам — подпискам на группы, постам в соцсетях и даже мимическим морщинам (это правда, пока в разработке) — создавать профиль пользователей: определять их психологические черты, семейное положение и доход.

«Когда они только появились, казалось, что социальные сети открывают огромные возможности для понимания общества, людей. Нам нужно было только осознать, например, как устроены их политические взгляды», — говорит Андрей.

И действительно, когда соцсети только появились в 2007-2008 годах, люди искренне публиковали о себе всю информацию. «Мы были наивными и не отделяли свой цифровой профиль от себя. Потом постепенно стратегия поведения в социальных сетях начала меняться. Люди начали создавать цифровые образы, казаться не теми, кем они являются», — объяснил Фильченков.

Поведение пользователей постоянно меняется, они «мигрируют» из одной социальной сети в другую. Тем не менее, искусственный интеллект позволяет по крупицам собирать информацию, необходимую для таргетирования рекламы. Или, например, находить людей, симпатизирующих радикальным идеологиям.

Закрытие пользователей в соцсетях неудивительно. С развитием технологий — и, в частности, искусственного интеллекта — родились опасения: социальные рейтинги, торговля персональными данными, слежка. Некоторые города Германии до сих пор остаются белым пятном на картах Google Street View из-за щепетильного отношения немцев к своим личным данным. Страны Европы и некоторые штаты в США ограничивают использование технологий распознавания лиц.

«Понятно, какой страх это обслуживает: власть не должна получать сильные инструменты контроля, потому что тогда она станет менее подконтрольной гражданскому обществу, развратится и начнет действовать во вред. Но, мне кажется, это неверное направление, которое приводит к слабому решению проблемы. Лучше не тормозить возможности другой стороны, а развивать собственные. Должны быть открыты политики использования этих камер, протоколы по защите данных. Можно сформировать гражданские комитеты по контролю за использованием камер. Нужно развивать институты и средства влияния на государство, а не ограничивать технологии», — полагает Андрей.

Как ИИ-расист помогает понять, что такое хорошо

Прозрачность, интерпретируемость искусственного интеллекта — один из важнейших трендов последних нескольких лет, сообщил Фильченков. И этот тренд набрал силу после многочисленных обвинений алгоритмов ИИ в расизме и дискриминации этнических меньшинств.

«Это связано не с тем, что искусственный интеллект злой, а с тем, на каких он обучался данных, пытается ли он воспроизвести правила, изначально имеющие дискриминационную природу, — рассказал Фильченков. — И история не в том, чтобы пытаться ограничить ИИ в плане принятия решений, а в том, чтобы попытаться разобрать ситуацию и понять, как возникла дискриминация и как ее исключить. Главный вопрос — это разобраться в том, что мы считаем правильным, и это отстоять. Это корень всего».

Появление искусственного интеллекта столкнуло человечество лоб в лоб с самыми острыми вопросами этики. И это еще одно направление интереса Андрея Фильченкова. Он уже читает лекции о будущем романтических отношений людей с нейросетями, о том, захватит ли искусственный интеллект человечество, как мы будем заниматься сексом с роботами и ругаться с голосовыми помощниками. Вы думаете — это далекое будущее? А это уже настоящее.


Источник: m.vk.com

Комментарии: