О страшной технологии, внедряемой в пермских школах

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


О страшной технологии, внедряемой в пермских школах

По соцсетям стали распространяться страхи по поводу некой технологии отслеживания эмоционального состояния детей, внедряемой в пермских школах. Распространяют это пугало печально известные ресурсы Крамола.инфо и РИА Катюша. Начну сразу с цитаты:

«Речь идет об «умном наблюдении» за состоянием обучающихся через онлайн-камеры, данные которого ежесекундно обрабатываются специальной компьютерной программой («нейросетью»). Таким образом планируется выявлять «потенциально опасных» подростков, которые пока еще ничего не сделали, но показали некие негативные эмоции. Детей, мимика которых будет идентифицирована как выражающая страх, агрессию или печаль, возьмут на карандаш педагоги-психологи, а их родителями займутся органы опеки. На стадии апробации система будет работать в нескольких школах Перми на базе видеонаблюдения при сдаче ЕГЭ. Как мы и прогнозировали, лозунги безопасности на госэкзамене оказались для цифровизаторов лишь предлогом для внедрения тотальной электронной слежки, учета и контроля за психикой школьников».

Правда, страшно? Некие умные камеры, управляемые какой-то таинственной нейросетью (слово-то какое страшное!), будут выявлять потенциально опасных подростков, проявивших негативные эмоции. А теперь давайте разберёмся, что на самом деле происходит. Сразу скажу, что ситуация эта меня совсем не радует, но не потому, что я боюсь умных камер, а потому, что на самом деле это очередной распил бюджета, прикрытый красивыми словами.

Для начала в двух словах о том, что понимается под нейросетью в программировании. Это технология, используемая в разных задачах, в том числе, в распознавании образов (о чём и идёт сейчас речь), которая получила распространение в последние несколько лет. Сама идея этой технологии довольно старая, но только сейчас стали широко доступны вычислительные мощности, необходимые для её работы. Если не вдаваться в технические детали, суть идеи в следующем: на вход программе подаётся некоторый (обычно очень большой) объём данных, которые эта программа должна классифицировать, причём изначально программа этого делать не умеет и должна обучиться. Обучение происходит на большом (нет, лучше сказать — ОЧЕНЬ большом) массиве примеров с заранее известным ответом, обрабатывая которые программа делает вывод о том, какие именно данные и как должны влиять на принятие того или иного решения. Это называется «машинным обучением» и является весьма ресурсоёмкой задачей. По данным MIT, обучение одной нейросети может загрязнять атмосферу больше, чем 5 автомобилей за всё время своей эксплуатации (https://habr.com/ru/news/t/455531/). Помимо того, что это задача ресурсоёмка с точки зрения потребления энергии, она ещё и довольно трудна концептуально. Далеко не очевидно, какие именно данные нужно давать программе и как их правильно представить.

Хочу ещё раз особое внимание обратить на то, что нейросети обучаются на примерах с заранее известным ответом, иными словами, они учатся имитировать решения, принимаемые человеком. Поэтому нейросеть может превзойти человека только в количественных показателях (например, в скорости обработки информации), но никак не в качественных. Она никогда не сможет заметить то, чего человек бы не заметил. Просто потому, что обучал её человек со своими знаниями, и в ней нет информации больше, чем та, которую человек в неё вложил.

Нейросети, правда, могут не только распознавать изображения, но и создавать новые, имитируя те образцы, которые в них заложены. Вот несколько наиболее впечатляющих примеров. Нейросеть превращает каракули в художественные шедевры (https://habr.com/ru/news/t/371917/). Фотореалистичные изображения из набросков (https://habr.com/ru/company/itsumma/blog/447896/). Реставрация фотографий (https://habr.com/ru/company/mailru/blog/453872/). И самое интересное — нейросеть может заставить изображение человека говорить то, что вы хотите (https://habr.com/ru/company/madrobots/blog/455439/). Последняя разработка действительно может вызывать некоторые опасения юридического характера.

Замечу, что по мнению некоторых экспертов (https://habr.com/ru/company/recognitor/blog/455676/), данное направление, в целом, достигло пределов своих возможностей, и чего-то принципиально нового на этом горизонте ждать не приходится. Алгоритмы будут слегка дорабатываться и внедряться в новые сферы. Применяются эти алгоритмы, в основном, в бизнесе для автоматизированного анализа рынка и в промышленности, например, для автоматической сортировки продукции или отслеживания брака. В этих сферах они и дальше будут развиваться, там они реально полезны.

Для тех, кто хочет немного глубже разобраться в этих вопросах, рекомендую вот эту статью: https://habr.com/ru/post/451214/ — очень доступно и почти без математики. Для более въедливых, вот здесь чуть больше математики и технических деталей: https://habr.com/ru/post/455331/. Ну а ещё более въедливые сами найдут информацию.

А теперь зададимся вопросом, как обстоят дела с распознаванием эмоций человека по фотографии. Эта тема давно уже является предметом серьёзных исследований, их проводят, в том числе, такие IT-гиганты как Microsoft и Apple, и кое-какие результаты здесь есть. Эти результаты вы, скорее всего, имеете в камере своего смартфона в виде системы распознавания улыбки. Вы наводите камеру на человека, и камера сама делает снимок, когда человек улыбнётся. Но, по большому счёту, вот это распознавание улыбок — это и есть потолок возможностей подобных систем. На большее они не способны. О том, чтобы такая система могла распознать некие тонкие проявления эмоций, незаметные человеку, смешно и говорить.

Однако пермские разработчики, похоже, совершили в этой области технологический прорыв, далеко обойдя американских гигантов. Впрочем, постойте, а что это за разработчики? В первоисточнике (https://59.ru/text/education/66098020/) говорится, что это «пермская IT-компания» New Vizion. Практически никакой информации в сети ни об этой компании, ни об их разработках нет. Нет никаких публикаций, рассказывающих о новой технологии, никаких исследований, испытаний, демонстраций её работы. Впрочем, одна демонстрация есть. Как раз по ссылке выше есть видео, на котором мы видим улыбающуюся женщину, разговаривающую с экраном, при этом нейросеть практически со 100%-ной вероятностью распознаёт её эмоцию как «страх». Рекомендую посмотреть. Это видео очень красноречиво говорит об уровне представленного искусственного интеллекта. Кто-то мог бы подумать, что эта система настолько умная, что распознаёт некий глубинный страх, который человек не выражает внешне, но это — чушь. Нейросети на такое не способны в принципе.

Какой же из этого следует вывод? С одной стороны, опасаться того, что эта система способна «залезть в душу» человеку и определить его скрытые чувства, не следует. Более того, я почти на 100 % уверен, что эта система просто не будет работать и не даст вообще никаких результатов. И это хорошо. Потому что в тотальной слежке нет, конечно, ничего хорошего. С другой стороны, печально, что бюджетные деньги пойдут на финансирование этой белиберды вместо того, чтобы сделать что-то реально полезное в тех же школах. Поэтому, в принципе, правильно, что люди выражают свой протест, только вот истерики не надо. А те, кто используют любой повод для нагнетания страха и паники, вместо того, чтобы серьёзно обсуждать реальные проблемы, делают большое зло, потому что проблемы эти такими средствами не решаются.


Источник: 59.ru

Комментарии: