Наука молодая. Зачем ученые ИТМО следят за нами в соцсетях |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-11-19 18:53 Ученые Университета ИТМО научили нейросеть определять профиль пользователя по его постам и подпискам. Что могут сказать о нас разработчики и чему нас самих может научить искусственный интеллект, рассказывает руководитель лаборатории «Машинное обучение» ИТМО и один из первых лауреатов премии Ильи Сегаловича Андрей Фильченков. «Искусственный интеллект (ИИ) — это, простыми словами, попытка воспроизвести на компьютере сознание человека - то, как человек рассуждает, думает, другие высшие функции нервной системы. Эта идея возникла в 1950-е годы. Тогда казалось, что вот-вот, сейчас мы соберемся и сделаем это», — рассказал Андрей Фильченков. С тех пор эта сфера привлекла много инженеров-романтиков. Сильного искусственного интеллекта, сравнимого с человеческим, пока так и не придумали. Зато слабый ИИ, способный решать узкие практические задачи, уже справляется со многими вопросами лучше людей. Например, находит рак легких по флюорографии, играет в шахматы, предсказывает аварии на сложном оборудовании. «Мы занимаемся совершенно разными проблемами машинного обучения, не связанными ничем, кроме того, что это машинное обучение», — широко очертил круг проектов лаборатории Андрей. Среди множества направлений есть и те, на которые делается особый фокус. Например, это доменная адаптация — приспособление уже обученного алгоритма к работе с похожими, но новыми наборами данных. Скажем, если программа обучена распознавать рак легких на снимках жителей Европы, она должна без ошибок работать и в Южной Америке, и в Полинезии, даже если вид легких у жителей других континентов немного отличается. Или еще задача — как сделать машинное зрение устойчивым. Чтобы алгоритмы могли «смотреть» высокоразмерный медиафайл, при обработке изображения сжимаются и часть информации отсеивается. За счет этого искусственный интеллект можно обмануть: например, наложить на фотографию панды шумы, даже не видные глазу, — и нейросеть с вероятностью 99% распознает не панду, а гиббона. Это опасно: с помощью такого вредоносного воздействия можно обойти функцию Face ID в смартфоне или направить беспилотный автомобиль на встречную полосу. Вокруг лаборатории уже сформировалась группа стартапов. Deflamel создает обложки для книг и музыкальных альбомов, помогая молодым и непрофессиональным авторам экономить на услугах дизайнеров. Somin.AI изучает целевую аудиторию брендов в соцсетях и позволяет эффективнее таргетировать рекламу. При этом вопреки стереотипам больше половины аспирантов лаборатории — девушки. «Между гендерами нет никакой разницы в плане способностей, но есть проблема в плане стереотипов, уверенности в себе. Иногда у моих аспиранток проявляется установка, что "я девочка, я вот это не могу". Конечно, это культурные, социальные установки. Их можно преодолеть, но они все равно чувствуются», — говорит Андрей Фильченков. Нужно ли бояться социальных рейтингов Одно из магистральных направлений исследований лаборатории - определение профилей людей в социальных сетях. Искусственный интеллект может по косвенным признакам — подпискам на группы, постам в соцсетях и даже мимическим морщинам (это правда, пока в разработке) — создавать профиль пользователей: определять их психологические черты, семейное положение и доход. «Когда они только появились, казалось, что социальные сети открывают огромные возможности для понимания общества, людей. Нам нужно было только осознать, например, как устроены их политические взгляды», — говорит Андрей. И действительно, когда соцсети только появились в 2007-2008 годах, люди искренне публиковали о себе всю информацию. «Мы были наивными и не отделяли свой цифровой профиль от себя. Потом постепенно стратегия поведения в социальных сетях начала меняться. Люди начали создавать цифровые образы, казаться не теми, кем они являются», — объяснил Фильченков. Поведение пользователей постоянно меняется, они «мигрируют» из одной социальной сети в другую. Тем не менее, искусственный интеллект позволяет по крупицам собирать информацию, необходимую для таргетирования рекламы. Или, например, находить людей, симпатизирующих радикальным идеологиям. Закрытие пользователей в соцсетях неудивительно. С развитием технологий — и, в частности, искусственного интеллекта — родились опасения: социальные рейтинги, торговля персональными данными, слежка. Некоторые города Германии до сих пор остаются белым пятном на картах Google Street View из-за щепетильного отношения немцев к своим личным данным. Страны Европы и некоторые штаты в США ограничивают использование технологий распознавания лиц. «Понятно, какой страх это обслуживает: власть не должна получать сильные инструменты контроля, потому что тогда она станет менее подконтрольной гражданскому обществу, развратится и начнет действовать во вред. Но, мне кажется, это неверное направление, которое приводит к слабому решению проблемы. Лучше не тормозить возможности другой стороны, а развивать собственные. Должны быть открыты политики использования этих камер, протоколы по защите данных. Можно сформировать гражданские комитеты по контролю за использованием камер. Нужно развивать институты и средства влияния на государство, а не ограничивать технологии», — полагает Андрей. Как ИИ-расист помогает понять, что такое хорошо Прозрачность, интерпретируемость искусственного интеллекта — один из важнейших трендов последних нескольких лет, сообщил Фильченков. И этот тренд набрал силу после многочисленных обвинений алгоритмов ИИ в расизме и дискриминации этнических меньшинств. «Это связано не с тем, что искусственный интеллект злой, а с тем, на каких он обучался данных, пытается ли он воспроизвести правила, изначально имеющие дискриминационную природу, — рассказал Фильченков. — И история не в том, чтобы пытаться ограничить ИИ в плане принятия решений, а в том, чтобы попытаться разобрать ситуацию и понять, как возникла дискриминация и как ее исключить. Главный вопрос — это разобраться в том, что мы считаем правильным, и это отстоять. Это корень всего». Появление искусственного интеллекта столкнуло человечество лоб в лоб с самыми острыми вопросами этики. И это еще одно направление интереса Андрея Фильченкова. Он уже читает лекции о будущем романтических отношений людей с нейросетями, о том, захватит ли искусственный интеллект человечество, как мы будем заниматься сексом с роботами и ругаться с голосовыми помощниками. Вы думаете — это далекое будущее? А это уже настоящее. Источник: m.vk.com Комментарии: |
|