Бот или человек? |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-07-12 11:58 Проблемы доказывания групповых преступлений в эпоху нейросетей «Так, в неустановленный период времени, но не позднее 17 часов 50 минут, более точные дата и время предварительным расследованием не установлены, не установленное следствием лицо, являющееся участником организованной группы, находясь в не установленном следствием месте, при не установленных следствием обстоятельствах обратилось к ?…? находящемуся по месту жительства, по адресу: ?…? с предложением принять участие в деятельности указанной организованной группы в качестве “закладчика-курьера”», – в адвокатской практике мне не раз доводилось сталкиваться с подобной формулировкой в текстах обвинительных заключений, связанных с расследованием преступлений по ч. 3 ст. 30, п. «а», «г» ч. 4 ст. 228.1 УК РФ. Аналогичная ситуация наблюдается по эпизодам преступной деятельности, относимым к ч. 4 ст. 159 УК, поскольку «неустановленные лица» зачастую так и остаются неустановленными, а весь объем обвинения возлагается на исполнителей. Большая часть обвинительных приговоров с квалификацией «организованная группа» выносится, как правило, в отношении не «организованных» лиц, а подростков, зачастую до конца не осознававших, насколько опасен такой путь «заработка». В последние годы правоприменительная практика нередко демонстрирует, что для доказывания квалифицирующего признака «участие в организованной преступной группе лиц» порой достаточно указать на это в обвинительном заключении, перечислив признаки организованной группы лиц; в этом отношении зачастую наблюдается формальный подход. Подчас изложенные в обвинительном заключении признаки не подтверждаются реальными доказательствами, которые были бы оценены с позиции классических «трех Д» (допустимость, достоверность, достаточность). Вместе с тем, говоря об организованной группе применительно к квалификации деяния (к примеру, по ст. 159 УК), объем обвинения кратно «вырастает» – с ч. 2 ст. 159 УК до ч. 4 данной статьи Кодекса. При этом даже подростку, совершившему преступление впервые, грозит реальный срок лишения свободы. Похожая ситуация относится ко всем видам преступлений, осуществляемым с использованием Интернета, на базе которого функционируют мессенджеры. Платформы современных мессенджеров позволяют организовывать на их базе полноценные социальные сети, обращаться к которым возможно анонимно и децентрализованно – посредством маршрутизации, работающей по принципу Tor и VPN. Возникает закономерный вопрос: как быть в случае, если адресат интернет-общения не является человеком? В ходе реализации Указа Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» принят ряд законов, в которых появилась дефиниция понятия «искусственный интеллект». К примеру, ст. 2 Федерального закона от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данных”» содержит ряд важных определений. В частности, в данной норме указано, что искусственный интеллект – комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека. В сентябре 2024 г. в Госдуму внесен проект федерального закона № 718538-8, предлагающий введение квалифицирующего признака, связанного с использованием фальсифицированных или искусственно созданных медиафайлов (голос, фотоизображения и т.д.). Данный вопрос касался, в частности, использования ресурсов и возможностей ИИ при искажении исходных данных, однако ввиду ряда неточностей Комитет Госдумы по госстроительству и законодательству оценил законопроект критически. Вместе с тем очевидно, что за минувшие три года ИИ и нейросети сделали существенный скачок в развитии. Изучив судебную практику, я обратил внимание на ряд интересных с практической точки зрения решений судов. Так, в одном из приговоров по уголовному делу отмечается, что в ходе допроса свидетель (оперуполномоченный) дал следующие показания: «Просмотрев вышеуказанные видеозаписи с помощью приложения, использующего нейросети, он установил, что мужчиной, оплачивающим товар, был ?…?, он установил по базам МВД его адрес и произвел его опрос»1. То есть упоминание использования возможностей приложений на базе ИИ, даже косвенно, может устанавливать наличие обстоятельств, подлежащих доказыванию. Таким образом, упоминание о возможностях нейросети уже есть, высказано суждение об их практическом применении. В другом приговоре допрошенный эксперт обратил внимание на «используемый в программе протокол CNN-EES, где алгоритмы нейронных сетей по фотографии повреждений рассчитывают и выдают скорость. В результате использования этих двух методов использования Crash3 и протокола CNN-EES была установлена примерная скорость в пределах 42 км/ч»2. Судом принято в качестве доказательства экспертное заключение, в котором указывалось, что ИИ самостоятельно сделал вывод, обобщив исходные данные. Изложенное указывает на возможности алгоритмов в позитивном аспекте применения. Более того, уже возникают споры в отношении программных комплексов ИИ как субъекта интеллектуального права, а также как продукта и актива. В связи с этим возникает вопрос о применимости положений УК о группе и об организованной группе в случае, если обвиняемый в ходе реализации умысла на совершение преступления общался с ботом на базе ИИ. Более того, умысел обвиняемого, по сути, реализуется посредством указаний, полученных от программного комплекса, имитирующего поведение человека. На сегодняшний день часть нейросетевых моделей находится в свободном доступе, а часть можно приобрести и использовать локально, имея мощное аппаратное обеспечение. ИИ, как и боты, относятся к программному обеспечению, которое хранится на серверах и в условиях анонимности Интернета может имитировать поведение человека. Однако в ряде случаев следствие указывает собеседника обвиняемого как «неустановленное лицо», вменяя ему функцию участника группы – то есть подразумеваемую личность. В данном контексте законодательная регламентация отсутствует; при этом очевидно, что субъектом преступления является лицо, а не имитация лица. Почему вменяется «группа лиц» в случае, если обвиняемый осознавал, что с ним общается алгоритм, фрагмент программного кода, а не человек? По сути, обвиняемый не вступал в группу, а лишь использовал ПО с целью совершения преступления. Рассмотрим ситуацию с другой стороны – когда, к примеру, обвиняемый субъективно полагал, что общается с человеком, хотя в действительности выполнял указания алгоритма. В данном случае мы также должны оценить то обстоятельство, что следователь и обвинитель не имеют достаточных данных, которыми смогли бы опровергнуть или подтвердить факт наличия человека-соучастника, с которым общается обвиняемый. Соучастник – как персона, как субъект преступления, как человек, – полагаю, должен быть установлен неоспоримым образом. Одним из самых важных для защитников принципов уголовно-процессуального законодательства является ссылка на принцип презумпции невиновности. Полагаю, в обозримом будущем вопрос о том, человеком ли совершено преступление, может стать актуальным. В настоящее время нейросетевого бота может изготовить даже далекий от программирования человек, при этом алгоритм будет последователен в своих ответах, а его локальное расположение позволяет обойти блокировки на общение, связанное с преступной деятельностью. Так, в одном из процессов я как защитник выступил с итоговой речью в прениях, в которой оспаривал совершение преступления доверителем в составе организованной группы. Одним из доводов защиты была ссылка на то, что подзащитный общался только с ботом: этот факт был отражен в переписке, даже абонент в окне диалога был указан как «бот». При этом подзащитный понимал, что предложение о приобретении запрещенных веществ прислал робот. Сделав закономерные выводы, я дополнил позицию защиты аргументами о том, почему речь об организованной группе в данном случае идти не может. Гособвинитель на это возразил, что за каждой программой стоит оператор. Это дало основания полагать, что не все субъекты уголовного процесса в достаточной мере понимают механизм работы современного алгоритма нейросети. Вместе с тем совершение преступления «совместно» с ИИ имеет, на мой взгляд, менее высокую общественную опасность, так как в нем отсутствует волевой посыл второго участника – он лишь электронный ассистент. Собственно, речь идет о группе «лиц», а понятие лица содержится как в законе, так и в толковом словаре русского языка. При этом отдельного квалифицирующего признака, определяющего совершение преступления с использованием программного обеспечения, имитирующего когнитивные функции человека, УК не содержит. В связи с этим полагаю, что данную квалификацию необходимо закрепить в законе как отдельный элемент, отдельный пункт, особенно в отношении преступлений, совершенных с использованием сети Интернет. Молодежь, воспитанная на повсеместном использовании гаджетов, зачастую не думает о рисках, получив от бота сообщение о «подработке». Многие воспринимают это как элемент игры, чего-то отстраненного от реальности и в силу особенностей личности не осознают в полной мере преступные последствия такого взаимодействия. При этом, несмотря на отсутствие процессуального механизма разграничения диалога лица с искусственным интеллектом и диалога двух лиц, отличительные особенности общения с алгоритмом-ботом существуют. Полагаю, при надлежащем применении наукоемкого лингвистического исследования можно разграничить особенности стилистического построения общения – для этого необходимы регуляторы и методики. С этой целью считаю необходимым прежде всего обновление научных и экспертных методик, которые могли бы помочь актуализировать соответствующие нормы законодательства. Проблема налицо, нейросети в доступе, и их работа законодательно не регламентирована с точки зрения уголовно-правового регулирования. «Электронный соучастник» – не человек, он не разумен (хотя и самообучаем), его не нужно исправлять посредством назначения уголовного наказания, ввиду чего квалификация преступления как группового, учитывая неочевидность интернет-общения, на мой взгляд, не выдерживает процессуальной критики. В заключение добавлю, что вопросы, связанные с искусственным интеллектом и его ролью в преступлениях, становятся все более значимыми, особенно в эпоху распространения нейросетей и чат-ботов. Считаю, что данная тема требует углубленного подхода, в том числе к выработке единых правовых механизмов. Полагаю, что защите необходимо чаще акцентировать внимание на данной проблематике, в том числе перед системой отправления правосудия. ПОЭТОМУ БУДЬТЕ БДИТЕЛЬНЫ ко всякого рода объявлениям в сети Интернет о подработке, стабильном заработке, работе на несколько часов и т.д. Источник: www.advgazeta.ru Комментарии: |
|