Передаем прогноз нарушений закона |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-08-18 11:56 Как предсказание преступлений из фантастики становится явью В конце прошлого месяца в Аргентине было объявлено о создании спецподразделения, которое будет с помощью технологий искусственного интеллекта (ИИ) бороться с будущими преступлениями. Преступлениями, которые еще не произошли. Правоохранители более 50 стран мира уже используют ИИ с похожими целями. «Вы, вероятно, уже поняли основной юридический недостаток методологии предварительной криминализации. Мы арестовываем людей, которые не нарушали закон». «Но, конечно, они это сделают»,— убежденно подтвердил Уитвер. «К счастью, они этого не сделают, потому что мы добираемся до них первыми, прежде чем они успевают совершить акт насилия. Поэтому совершение преступления само по себе является абсолютной метафизикой. Мы можем утверждать, что они виновны. Они, с другой стороны, могут вечно утверждать, что они невиновны. И в некотором смысле они невиновны». (Филип К. Дик, «Особое мнение») По-аргентински 29 июля 2024 года стало известно о создании в структуре Министерства безопасности Аргентины подразделения по использованию искусственного интеллекта в целях обеспечения безопасности (Unidad de Inteligencia Artificial Aplicada a la Seguridad, UIAAS). Резолюцию о создании этой структуры подписала министр безопасности Патрисия Буллрих. На новое подразделение будет возложен целый ряд задач. UIAAS будет мониторить социальные сети и сайты, в том числе так называемую глубокую паутину (часть интернета, которую не индексируют поисковые системы и которую невозможно обнаружить с их помощью). Благодаря анализу соцсетей планируется выявлять потенциальные угрозы, отслеживать перемещения членов преступных группировок, прогнозировать возможные массовые беспорядки. Изображения с камер наблюдения будут анализироваться в режиме реального времени, чтобы обнаружить подозрительную активность или идентифицировать разыскиваемых лиц. Для патрулирования больших территорий будут применяться дроны. UIAAS также будет заниматься предотвращением кибератак с помощью выявления необычных закономерностей в компьютерных сетях. Также подразделение будет отслеживать подозрительные финансовые операции. За счет обработки больших массивов данных будут создаваться профили лиц, подозреваемых в преступлениях, и выявляться связи между различными делами. Очень интересно выглядит следующее направление деятельности UIAAS: использование алгоритмов машинного обучения для анализа исторических данных о преступлениях, чтобы прогнозировать будущие преступления и помогать их предотвращать. Правозащитные организации и либеральные СМИ высказали свои опасения по поводу возможных нарушений гражданских прав и злоупотреблений новым подразделением. Любителям научной фантастики обещание предсказывать будущие преступления может напомнить научно-фантастический рассказ Филипа Дика «Особое мнение» («Minority Report»), опубликованный в 1956 году. В этой книге три мутанта обладали способностью предсказывать будущее, что давало возможность властям привлекать людей к ответственности за уголовные преступления, которые те еще не совершили. По мотивам рассказа снят фильм Стивена Спилберга «Особое мнение» (2002 год). Впрочем, госпожа Буллрих утверждает, что Аргентина лишь следует опыту таких стран, как США, Китай, Великобритания, Израиль, Франция, Сингапур и Индия, в использовании технологий ИИ для обеспечения общественной безопасности. По-американски Компания PredPol была основана в 2012 году как совместный проект департамента полиции Лос-Анджелеса и профессора Калифорнийского университета в Лос-Анджелесе Джеффри Брентингема. В 2019 году произошел ребрендинг, она сменила название на Geolitica. Выпускаемое компанией программное обеспечение также называлось PredPol (сокращение слов predicted policing — «прогнозирование полицейской деятельности»). На основе информации о совершенных ранее преступлениях программа ежедневно выдавала прогнозы, где и когда, вероятнее всего, могут произойти новые преступления. В октябре 2023 года на сайтах The Markup и Wired была опубликована статья «Программное обеспечение прогнозирования полицейской деятельности ужасно плохо предсказывает преступления». В ней было проанализировано использование программы PredPol департаментом полиции города Плейнфилд, штат Нью-Джерси. С 25 февраля по 18 декабря 2018 года полиция Плейнфилда получила 23 631 прогноз, сгенерированный программой PredPol. Авторы статьи проанализировали прогнозы, в которых указывалось, что преступление определенной категории должно было произойти в месте, которое не патрулировалось полицейскими. Точность предсказаний оказалась ниже 0,5%. Менее 100 прогнозов по преступлениям определенной категории совпали с сообщениями о таких преступлениях, которые позднее получила полиция. Точность предсказания грабежей и нападений при отягчающих обстоятельствах — 0,6%, краж со взломом — 0,1%. Искусственный интеллект натаскивают на проверку судебных решений Контракт между полицией Плейнфилда и PredPol предусматривал, что плата за первый год использования программы составляет $20 500, за продление на год — $15 500. Руководство департамента полиции было недовольно экспериментом и отказалось от дальнейшего сотрудничества с компанией, посчитав, что деньги можно было потратить лучшим образом. Двумя годами раньше The Markup и Gizmodo проводили похожее исследование эффективности программы PredPol. Представители полиции 38 городов, в которых использовалась программа, не назвали ни одного случая, когда прогноз привел бы к аресту преступника. В конце 2023 года стало известно, что Geolitica прекращает свою деятельность. Часть ее интеллектуальной собственности приобрела и часть сотрудников взяла на работу компания SoundThinking (до 2023 года носила название ShotSpotter). Компанию создал в 1996 году Гэри Лаудер, член семьи, владеющей компанией Estee Lauder Companies. Он до сих пор является главным инвестором SoundThinking. Основное направление деятельности SoundThinking — предоставление муниципальным органам и службам полиции систем детектирования выстрелов из огнестрельного оружия. Разработанные компанией локаторы выстрела с помощью системы акустических сенсоров, установленных в разных местах, выявляют источник стрельбы, а в некоторых случаях также ее направление и вид используемого оружия. Полученная информация обрабатывается с помощью специального программного обеспечения и оперативно передается правоохранительным органам. Технология используется более чем в 150 городах США. Стоимость — до $95 тыс. на квадратную милю (2,59 кв. км), контролируемую с помощью данной технологии. В 2023 году в распоряжение агентства Associated Press попал внутренний документ компании, согласно которому сотрудники компании играют важную роль в принятии окончательных решений. Они могут определять, какой звук зафиксировал микрофон — выстрела, фейерверка, грома или какой-то другой. Человек может пересмотреть и отменить выводы, к которым пришел компьютерный алгоритм. В 2021 году, по данным SoundThinking, такой пересмотр происходил в 10% случаев (всего клиенты компании за этот год получали сообщения о стрельбе 291 726 раз). Конфиденциальный документ SoundThinking был предан гласности по решению суда по делу Майкла Уильямса. 65-летний житель Чикаго в 2020 году был обвинен в убийстве и провел в тюрьме почти год. Согласно обвинению, Уильямс застрелил молодого человека, которого подвозил в своей машине. Единственным доказательством был звук, записанный системой ShotSpotter. Компьютерная программа определила его как звук фейерверка с 98-процентной уверенностью. Сотрудник компании пересмотрел это решение, посчитав, что это был звук выстрела. Уильямс вышел на свободу после того, как дело было прекращено за недостаточностью улик. В 2021 году в рецензируемом научном журнале Journal of Urban Health была опубликована работа группы американских исследователей, авторы которой пришли к выводу, что использование технологии ShotSpotter не оказывает серьезного влияния на число убийств, совершенных с применением огнестрельного оружия, а также на число арестов за убийства и преступления, связанные с оружием. Несмотря на существующие недостатки как технологии предсказания преступлений, так и технологии детектирования выстрелов, оба направления выглядят перспективными. Еще в 2018 году ShortSpotter приобрела компанию HunchLab, занимавшуюся разработкой программ прогнозирования полицейской деятельности. После покупки интеллектуальной собственности Geolitica укрепились позиции SoundThinking как претендента на звание «Google для полиции» — фирмы, предоставляющей правоохранителям широкий спектр технологических услуг. По-израильски В ноябре 2022 года в суде израильского города Лод слушалось дело человека, которого задержала полиция в международном аэропорту имени Бен-Гуриона по подозрению в том, что при нем могут быть наркотики. Во время обыска наркотики действительно были найдены. Подсудимый заявил, что его не имели права задерживать и обыскивать, так как у него ранее не было проблем с законом, а у полиции не было оснований его в чем-то подозревать. Тогда представитель полиции заявил, что арест был произведен после того, как специальная компьютерная программа указала, что этого человека следует обыскать, так как он может перевозить наркотики. В списке подозреваемых может оказаться любой, кто прибывает в Израиль по воздуху, даже если этот человек ранее никогда не обвинялся в нарушении законодательства о наркотиках, а также нет никаких оснований подозревать его в том, что он их перевозит. То есть подозреваемым может оказаться любой человек без уголовного прошлого. Представители полиции отказались предоставить суду информацию о том, как работает программа. Они или не знали, или не захотели рассказать, какие именно параметры берутся в расчет для того, чтобы кого-то заподозрить (внешность, пол, место жительства, половая ориентация, финансовая ситуация), каков вес того или иного параметра. Поскольку принципы работы неизвестны, система не поддается контролю. США и Китай проведут консультации в сфере безопасного использования искусственного интеллекта Подобную технологию использует также служба общей безопасности Израиля (Шин-Бет) с целью борьбы с терроризмом. Но Шин-Бет информирует лиц, включенных в список потенциальных подозреваемых, и эти люди могут оспорить решение спецслужбы. О самом существовании списка лиц, которых могут задержать и обыскать по подозрению в перевозке наркотиков, широкая публика узнала из публикации в газете Calcalist. Председатель комитета Кнессета (парламента Израиля) по Конституции, закону и правосудию Симха Ротман подал в правоохранительные органы запрос, чтобы выяснить юридические основания действия данной системы и подробности ее использования. В частности, сколько человек было идентифицировано с помощью программы, сколько было допущено ошибок, насколько использование компьютерной программы результативнее по сравнению с результатами работы людей. На то, чтобы ответить на запрос парламентария, у израильской полиции ушло пять месяцев. Представитель полиции подполковник Гилад Бахат, отчитываясь перед Кнессетом в мае 2023 года, заявил, что программа используется в качестве вспомогательного инструмента для анализа и выявления подозрительного багажа, но окончательное решение остается за офицером полиции, «который чаще не слушает систему, чем слушает». В мае 2024 года Ассоциация гражданских прав Израиля подала петицию в Высший суд справедливости, требуя прекратить использование компьютерной системы профилирования в аэропорту. По-голландски В 2014 году в Нидерландах был принят закон о борьбе с мошенничеством, направленный против незаконного получения различных социальных выплат, пособий и налоговых льгот. Тогда же была создана система SyRI (Systeem Risico Indicatie, «система признаков риска»), которая анализировала сведения о гражданах из различных государственных баз данных (о роде занятий, общественной деятельности, образовании, доходах и расходах, кредитах, месте жительства, недвижимом и движимом имуществе, наличии медицинской страховки и др.). Данные загружались в систему в обезличенном виде (число вместо имени), после чего программа оценивала уровень риска — может ли данный человек обманывать социальные службы. После обработки информации аналитиками сведения могли передаваться в прокуратуру или полицию — уже вместе с именем подозреваемого. Полный список параметров, используемых в программе, а также модель оценки уровня риска не разглашались. После начала использования SyRI коалиция гражданских организаций и писатели Томми Виринга и Максим Фебруари подали в суд на правительство страны. В иске говорилось, что использование таких объемов информации против граждан беспрецедентно, недемократично и вызывает серьезные подозрения по поводу возможного нарушения прав человека. В двух районах Роттердама использование SyRI вызвало протесты местных жителей. В предложения по регулированию ИИ впишут европейский опыт и российские жалобы После дискуссии в муниципалитете мэр Роттердама Ахмед Абуталеб отменил использование SyRI в городе. В 2019 году газета De Volkskrant сообщила, что с начала использования программы она не обнаружила ни одного мошенника. Специальный докладчик ООН по вопросу о крайней нищете и правах человека Филип Олстон выразил сомнение в том, что использование SyRI соответствует закону. В том же 2019 году SyRI была присуждена Премия Большого Брата (Big Brother Awards) — ежегодная премия за самое грубое нарушение неприкосновенности частной жизни и свободы граждан государством или компанией. 5 декабря 2020 года суд в Гааге запретил использование SyRI, признав, что она нарушает ст. 8 Европейской конвенции о правах человека, которая предусматривает право на уважение частной и семейной жизни. С 2019 года в Нидерландах действует программа прогнозирования преступности, покрывающая всю страну. Она называется CAS (Criminaliteits Anticipatie Systeem, «система прогнозирования преступности»). Так называемая карта жары делится на квадраты, соответствующие участкам размером 125х125 метров. Те квадраты, в которых высок риск совершения преступления, выделяются красным цветом. Прогнозируется не только место, но и время возможного совершения преступления. В расчет принимаются такие факторы, как преступления, совершенные в прошлом в данном районе, расстояние до ближайшей автострады и др. Полный список, как всегда, не оглашается. По-швейцарски В 2020 году на сайте Algorithm Watch был опубликован обзор нескольких систем полицейского прогнозирования, используемых в Швейцарии. В трех кантонах, в которых живет около трети населения страны, полиция использует программное обеспечение Precobs, которое было разработано немецким Институтом технологий прогнозирования, основанных на паттернах (Institut fuer musterbasierte Prognosetechnik, IfmPt, в 2021 году был куплен компанией Logobject Deutschland). Название Precobs расшифровывается как Pre Crime Observation System (система наблюдения перед преступлениями). При этом создатели, безусловно, читали Филипа Дика, так как в «Особом мнении» мутанты, предсказывавшие преступления, назывались очень похожим словом — precogs. Precobs, в частности, используется для прогнозирования краж со взломом, исходя из теории, что взломщик часто оперирует на относительно небольшой территории. Начиная с середины 2010 годов число таких преступлений в этих трех кантонах значительно снизилось. В апреле 2020 года представитель полиции кантона Ааргау даже заявлял, что краж со взломом стало слишком мало, так что сложно использовать программу для предсказания будущих преступлений. Это могло бы указывать на эффективность Precobs, если бы не одно обстоятельство. Число краж со взломом снизилось за тот же период времени по всей стране — в среднем на 44%, а в трех кантонах, использующих программу, показатели оказались хуже общенационального. В шести кантонах Швейцарии используется программа Dyrias-Intimpartner. Dyrias — сокращение от Dynamischen Risiko Analyse Systeme (динамическая система анализа рисков). Программа, также разработанная в Германии, оценивает вероятность риска того, что мужчина применит насилие в отношении своей партнерши. В 2018 году швейцарская компания общественного телевидения SRF сообщала, что сотрудник полиции должен ответить «да» или «нет» на 39 вопросов, касающихся подозреваемого, после чего программа оценит уровень риска, который он представляет по пятибалльной школе. Как стремление к максимально быстрой разработке ИИ-инструментов вредит их качеству По заявлению компании точность оценки очень высока — программа правильно определяет восемь из десяти человек, представляющих опасность. В одном из сторонних исследований приводятся меньшие цифры, а также содержится утверждение, что хорошие показатели программы объясняются тем, что она щедро развешивает ярлык «опасный», при этом многие, получившие такую оценку, впоследствии не совершали преступлений. C 2018 года во всех германоговорящих кантонах Швейцарии используется компьютерная программа ROS (Risikoorientierter Sanktionenvollzug — риск-ориентированное исполнение приговоров к тюремному заключению). Программа относит заключенных к одной из трех категорий. Категория А — риск повторного совершения преступления отсутствует, В — возможно совершение нового преступления, С — возможно совершение преступления с применением насилия. Тестирование проводится несколько раз, по результатам теста категория может меняться — в сторону от А к С, но не наоборот. По подсчетам SRF, только четверть заключенных, причисленных к категории С, совершила новое преступление после освобождения из тюрьмы (ложноположительный результат в 75% случаев). Только каждый пятый рецидивист в прошлом был причислен к категории С (ложноотрицательный результат в 80% случаев). По-китайски В Китае активно используется биометрия и ИИ-технологии для прогнозирования правонарушений, в том числе в сфере государственной безопасности. Вот лишь несколько примеров. Как сообщало Radio Free Asia, во время XIX Азиатских игр в Гуанчжоу в сентябре-октябре 2023 года в дверях номеров в отелях были установлены камеры, распознающие лица тех, кто входит в номер. В номере должно быть столько людей, сколько в нем зарегистрировано под своими настоящими именами. Посетители также должны регистрироваться под настоящим именем. В случае нарушения выносится предупреждение, а сведения о посетителе передаются в отделение полиции. Американская компания Internet Protocol Video Market (IPVM), занимающаяся расследованиями в сфере использования технологий видеонаблюдения, в 2023 году сообщала, что китайская Zhejiang Dahua Technology, занимающаяся производством аппаратуры видеонаблюдения, разработала технологическое решение с использованием ИИ, с помощью которого можно заранее определить, что какой-то человек хочет развернуть баннер (вероятнее всего, в знак протеста). Сведения о готовящемся нарушении будут автоматически переданы в правоохранительные органы. После запроса IPVM с сайта Dahua исчезло упоминание о данной технологии. Согласно другому сообщению IPVM, в Сунцзяне (район Шанхая) в 2023 году был запущен опытный проект, направленный на «цифровую трансформацию общественной безопасности в городе». В случае успеха он может быть распространен на весь Шанхай. Система будет отслеживать перемещения отдельных категорий лиц. В частности, она будет информировать полицию о подозрении на проституцию, анализируя регистрацию в отеле двух людей противоположного пола. С помощью мониторинга переговоров в приложении WeChat власти будут предупреждены о возможных преступлениях в сфере оборота наркотиков. Контроль будет также вестись за прибытием в Шанхай уйгуров. По-японски Национальное полицейское агентство (НПА) Японии уже несколько лет активно использует в работе технологии искусственного интеллекта — для поиска автомобилей, обнаружения операций по отмывке денег и торговле наркотиками. Летом 2023 года сообщалось о планах тестирования камер наблюдения, информация с которых будет обрабатываться с помощью ИИ для прогнозирования возможных преступлений и их предотвращения. Контроль будет производиться по трем направлениям — распознавание поведения, распознавание объектов и распознавание проникновения. В первом случае под подозрение будет попадать человек, который нервно себя ведет, оглядывается, каким-то другим образом проявляет нервозность. Во втором случае ИИ будет по форме предмета опознавать оружие. В третьем — сообщать о нарушении границ закрытой для посторонних территории. По времени сообщение о тестировании новой технологии совпало с первой годовщиной убийства экс-премьера Японии Синдзо Абэ во время предвыборного митинга. Что касается японского частного бизнеса, то для него «Особое мнение» Филипа Дика уже стало явью. В 2019 году японский стартап Vaak разработал программу Vaakeye, которая обрабатывает информацию с камер наблюдения в магазине, чтобы идентифицировать посетителей, собирающихся что-то украсть, по их поведению. По заявлению компании во время тестирования программы в японских магазинах число магазинных краж снижалось на 77%. Источник: www.kommersant.ru Комментарии: |
|