Улучшит ли искусственный интеллект исправительные учреждения?

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Китай и Гонконг начинают создавать «умные» тюрьмы. Стоит ли США последовать их примеру?

Ограда Калифорнийской мужской тюрьмы. Чино, штат Калифорния.

Датчики под управлением искусственного интеллекта, трекинг-браслеты и анализ данных: на наших глазах эти технологии ворвались в умные дома, машины, школы и офисы. А теперь сетевые системы осваивают новые области: на этот раз — тюрьмы.

Недавно Китай и Гонконг объявили, что их правительства разворачивают новую технологию на основе искусственного интеллекта (ИИ) для ежедневного контроля над заключенными ряда тюрем. Правительство Гонконга тестирует оборудование, подобное устройствам американской корпорации Fitbit, которое непрерывно отслеживает местоположение, занятия и пульс заключенных. Некоторые тюрьмы готовятся к запуску сетевых систем видеонаблюдения, которые будут фиксировать случаи ненормального поведения: членовредительства или проявлений агрессии. В других начнут использовать роботов, запрограммированных на поиск наркотиков в фекалиях заключенных.

Правительство материкового Китая заканчивает установку передовой «умной» системы видеонаблюдения в тюрьме Яньчэн. Посредством скрытых камер и датчиков, размещенных во всех тюремных комнатах, система в режиме реального времени сможет контролировать содержащихся там бывших высокопоставленных лиц. Согласно статье в South China Morning Post, система будет передавать собранные данные в «быстродействующий компьютер, снабженный элементами ИИ, который сможет круглые сутки распознавать, отслеживать и контролировать заключенных» и «в конце каждого дня с помощью распознавания лиц, анализа движений и других возможностей ИИ формировать о каждом заключенном подробный отчет, в том числе анализ его поведения». Как и в Гонконге, эти системы были разработаны, чтобы отмечать случаи подозрительного поведения и оповещать охранников, если действия заключенного классифицируются как ненормальные. Сотрудник технологической компании Tiandy Technologies, разработавшей систему видеонаблюдения для тюрем, утверждает, что с помощью новой технологии «побеги станут историей», и могут остаться в прошлом случаи неэтичного поведения охраны — в частности, взяточничество.

Все вокруг уже «умное», чем тюрьмы хуже? Потенциал подобного нововведения неоспорим, риски — тоже. И хотя властям США следует остерегаться полного копирования китайской модели паноптикум-тюрьмы, новые технологии могут улучшить условия содержания в камерах, а также повысить общий уровень безопасности. Однако злоупотребление современными технологиями грозит превратить будни заключенных и тюремных смотрителей в настоящий кошмар.

Уголовное правосудие ставит перед американскими тюрьмами сразу несколько целей: ограничение дееспособности преступников, воздаяние за преступление, предупреждение будущих правонарушений и реабилитацию заключенных. В последнее время предметом обсуждения становится именно четвертый аспект — особенно, учитывая растущее признание того факта, что подавляющее большинство заключенных (95% в региональных тюрьмах) однажды снова станет частью общества.

Когда для достижения этих целей предлагают использовать сетевые технологии, нужно понимать, что замена персонала тюрьмы на ИИ не должна быть приоритетной задачей. В первую очередь стоит помнить о правах и достоинстве заключенных, а также о необходимом для успешной реабилитации человеческом участии — этого не сможет заменить ни один, даже самый совершенный, ИИ. Напротив, следует учесть целесообразность затрат на разработку «умных» тюремных технологий, которые смогут облегчить труд людей и помочь обеспечить заключенным безопасность, поддержку и образование.

Скажем, применение ИИ в тюрьмах для анализа разновидностей поведения заключенных в перспективе принесет пользу как лицам под стражей, так и тюремному персоналу — можно будет выявлять ситуации потенциального нанесения вреда. Так, например, дежурным будет легче замечать у заключенных признаки склонности к членовредительству.

ИИ можно использовать и для наблюдения за охраной. Исследователи уже пытаются внедрить машинное обучение в системы профессиональной подготовки, чтобы идентифицировать и пресекать случаи полицейского насилия. ИИ просматривает личные дела и учится выявлять сотрудников, которые с высокой долей вероятности могут стать зачинщиками «нежелательного происшествия». Система также указывает на служащих, за которыми числятся определенные проступки, или тех, что переживают сильный стресс. Технологии умных тюрем позволят реализовать подобные функции на основе сбора данных о тюремных надзирателях. К тому же систему для выявления ненормального поведения заключенных можно научить определять потенциальные злоупотребления полномочиями со стороны надзирателей и оповещать об этом.

Но прежде чем внедрять эти системы, нужно ответить на пару вопросов: достаточно ли надежны современные технологии? И вообще, хотим ли мы отдать тюрьмы на откуп технологиям?

Что касается первого вопроса, наши текущие технологические возможности дают вескую причину не торопиться устанавливать умные камеры в тюрьмах. Для анализа поведения людей камеры под управлением ИИ скорее всего будут использовать алгоритм распознавания лиц в сочетании с аналитической обработкой данных. Чтобы подобная технология заслуживала доверия, она, по крайней мере, должна безошибочно определять личности отдельных граждан.

Однако системы распознавания лиц — в частности, Rekognition от Amazon, которую уже продают полиции, — скверно определяют темнокожие и смуглокожие лица, особенно женские. Несложно представить, что ИИ будут использовать для наказания невиновного. При этом средств правовой защиты у него может не оказаться: суды, как правило, признаютдисциплинарные решения тюрем.

Даже если технологии распознавания лиц научатся безошибочно идентифицировать людей, нужно настороженно относиться к заявлению, что эти технологии смогут отслеживать случаи «ненормального» поведения. Для обучения ИИ — от амазоновской Alexa до алгоритмов модерации контента на Facebook — нужны люди. И вот в чем вопрос: как разработать стандарты для определения «ненормального» поведения? Если критерии выборки будут слишком жесткими, в категорию «ненормального» могут попасть многочисленные разновидности «нормального» поведения — людям придется подстраиваться, испытывая сильнейшее психологическое давление. А если критерии будут чересчур мягкими, машина, лишенная человеческой чуткости и осмотрительности, может упустить те эмоциональные проблемы, которые заметят сотрудники исправительных учреждений. Хотя, учитывая значительную нехватку персонала в тюрьмах США, важно заметить, что существующие тюрьмы редко можно назвать образцовыми в этом плане.

Даже если предположить, что «умные» технологии научатся с относительной точностью определять подозрительное поведение, стоит задуматься: а какой ценой? Если отставить вопросы о правах и достоинстве заключенных, усиленное видеонаблюдение может навредить реабилитации, создавая атмосферу недоверия и контроля. Исследования показали, что в тюремных учреждениях с постоянным надзором напряжение между персоналом и заключенными усиливается, еще больше усугубляя проблемы с поведением. Не будет преувеличением предположить, что последствия работы таких тюрем — технически усовершенствованной версии Большого Брата — будут противоречить изначальной цели их создания.

В то же время, тюрьмы, в которых уровень агрессии и проблем с поведением значительно снизился — среди них учреждения в штате Коннектикут, Норвегии и Германии — не применяют формы строгого надзора и социального контроля. Напротив, они стараются вернуть заключенным самостоятельность, подготовить их к повторному вступлению в общество. Но, возможно, одно другому не мешает. Может ли безупречно спроектированная система, лишенная человеческих недостатков и способная с высокой точностью определять и фиксировать случаи по-настоящему ненормального поведения, дать узникам ощущение свободы, безопасности и равноправия? Выигрывает ли она в сравнении с предвзятостью и прихотями живых надзирателей? Может, благодаря ей у персонала тюрьмы останется время чем-то помочь заключенным?

И все-таки, даже если получится создать ИИ, который будет выполнять все заявленные функции, использование такой системы станет невиданным прежде посягательством на неприкосновенность личной жизни. Она будет собирать и анализировать данные, незаметные человеческому глазу, непрестанно обрабатывать беспрецедентно широкий спектр поведенческих сценариев и помещать небывалое множество конфиденциальных сведений под пенитенциарный микроскоп. Объединение такое количества биометрической, поведенческой и идентифицирующей информации влечет за собой дополнительные риски. Например, что если у управления исправительных учреждений, владеющего этими данными, возникнут финансовые трудности, и оно решит продать такое сокровище? И как скоро ее украдет предприимчивый хакер? Мы уже видели, как все может обернуться.

Вывод из этого лишь один: действовать нужно с осторожностью. Сами по себе эти технологии ни плохие, ни хорошие. Они, конечно, «умные», но всего лишь дублируют и расширяют обязанности тюремного персонала — сами обязанности не меняются. Умные тюрьмы способны как смягчить, так и усугубить проблемы в американском уголовном праве. В значительной мере все зависит от того, какой курс возьмет система, перед тем как технологии внедрят. Сейчас вероятнее второй вариант.

А вот если мы перевернем отношение правительства к заключенным, и уже после этого создадим соответствующие технологии ИИ, — тюрьмы, быть может, действительно «поумнеют».

По материалам Pacific StandardАвтор: Нила Бала и Ларс Траутман

Переводила: Алёна КобрезияРедактировали: Дмитрий Пятаков и Александр Иванков


Источник: m.vk.com

Комментарии: