"В 2018-м году пресса много писала о методах, применяемых китайскими властями в провинции Синцзянь, где система распознавания лиц применяется для выявления потенциальных «террористов», которые потом

МЕНЮ


Искусственный интеллект. Новости
Поиск
Регистрация на сайте
Сбор средств на аренду сервера для ai-news

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация




RSS


RSS новости

Новостная лента форума ailab.ru


"В 2018-м году пресса много писала о методах, применяемых китайскими властями в провинции Синцзянь, где система распознавания лиц применяется для выявления потенциальных «террористов», которые потом изолируются от общества на основании одних лишь подозрений согласно заданным параметрам «групп риска». Меньше известно о схожих практиках, хотя, конечно, не такого масштаба, в США. Так, полиция города Орландо во Флориде стала применять систему распознавания лиц, разработанную Аmazon, чтобы остановить рост уличного насилия. Как и в Китае, система, которая позволяет идентифицировать до 100 лиц в одном кадре, работает вместе с сетью камер наблюдения. Аmazon разработал для полиции мобильное приложение, пользуясь которым можно сканировать лица и устанавливать сходство с фотографиями из базы данных полиции.

При этом технологии распознавания лиц все больше сочетаются с системами «распознавания аффекта». Разработчики этих систем утверждают, что по видеозаписи или фото лица человека можно определить тип его личности, чувства внутри него, даже скрытые, его душевное здоровье, можно прочесть его намерения — в частности, намерение совершить преступление. Более того, исследователи из Стэнфордского университета утверждают, что нейронные сети, анализируя выражение лица, могут указывать на тип сексуального поведения человека, в частности является ли он гомосексуалом.

«Распознавание аффекта» — очень удобный инструмент, который может применяться не только в полицейских мероприятиях или в мониторинге аэропортов и вокзалов, но и при найме людей на работу, приеме в вузы. Человеку может быть отказано в страховке, в работе, в кредите буквально на том основании, что он или она «не вышли лицом». Многие ученые, не согласные с подобными выводами, бьют тревогу. Ведь физиогномика и френология, которые лежат в основе подобных проверок, среди серьезных ученых считаются лженауками, которые, ко всему прочему, активно использовались в бесчеловечных практиках Третьего рейха. Но проект полиции Орландо был закрыт не из-за френологии.

Когда о нем узнали сотрудники влиятельной некоммерческой организации «Американский союз гражданских свобод» (UCLA), они привлекли к тестированию исследователей из Университета Калифорнии в Беркли. Те ввели в систему фотографии действующих членов Сената США и сравнили их с полицейской базой данных арестованных лиц. Приложение Аmazon в итоге установило, что лица 28 сенаторов идентичны лицам преступников из базы, к тому же большинство сенаторов, идентифицированных таким образом, оказались цветными. Вышел скандал, полиция Орландо от ИИ-практики отказалась, хотя в Аmazon заявили, что проблема не в принципе работы системы, а лишь в неполноте собранных данных.

Вероятно, эта осечка не слишком затормозит процесс — так, недавно сообщалось, что IВМ и полиция Нью-Йорка разработали систему на базе ИИ, которая позволяет включить поиск по «этничности» подозреваемого, то есть все та же френология в действии. Тем временем системы распознавания лиц с функцией «распознавания аффекта» активно берет на вооружение частный сектор; например, крупные американские торговые сети уже используют их, чтобы определять потенциальных воров и сканировать лица покупателей для выявления отрицательных эмоций.

Сообщалось и о мониторинге лиц студентов в Университете Миннесоты: по выражениям лиц во время занятий ИИ делал выводы, насколько интересен предмет, что должно было влиять на зарплату преподавателя и его аккредитацию. Впрочем, после огласки в прессе университет прекратил практику и стал отрицать сам ее факт -— вероятно, из опасений исков со стороны правозащитных организаций.

(Игорь Шнуренко. Искусственный интеллект на грани нервного срыва // "Эксперт", 2019. №1-3).

Комментарии: