![]() |
![]() |
![]() |
![]() |
Киберпреступность эпохи ChatGPT |
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-05-24 16:55 ![]() Помимо создания человекоподобного языка, ChatGPT способен создавать код на ряде различных языков программирования. Как и в других случаях использования, можно сгенерировать ряд практических результатов за несколько минут, введя нужные подсказки. Одной из областей преступности, на которую это может оказать значительное влияние, является киберпреступность. С помощью текущей версии ChatGPT уже можно создавать базовые инструменты для различных вредоносных целей. Несмотря на то, что инструменты являются лишь базовыми (например, для создания фишинговых страниц или вредоносных скриптов VBA), это позволяет человеку без технических знаний использовать вектор атаки на системе жертвы. Такой тип автоматизированной генерации кода особенно полезен для тех преступников, которые практически не разбираются в кодировании и разработке. Очень важно, что меры защиты, не позволяющие ChatGPT предоставлять потенциально вредоносный код, работают только в том случае, если модель понимает, что она делает. Если подсказки разбиты на отдельные шаги, обойти эти меры безопасности проще простого. Хотя инструменты, созданные ChatGPT, все еще достаточно просты, активное использование их субъектами угроз открывает мрачные перспективы в свете неизбежного совершенствования таких инструментов в ближайшие годы. На самом деле, способность ChatGPT преобразовывать подсказки на естественном языке в рабочий код была быстро использована злоумышленниками для создания вредоносного ПО. Вскоре после публичного выпуска ChatGPT в блоге Check Point Research от декабря 2022 года было опубликовано сообщение, демонстрирующее, как ChatGPT может быть использован для создания полного потока заражения, начиная с фишинга и заканчивая запуском обратной оболочки, принимающей команды на английском языке. Ожидается, что возможности генеративных моделей, таких как ChatGPT, по оказанию помощи в разработке кода со временем будут совершенствоваться. Последняя версия GPT-4 уже улучшена по сравнению с предыдущими версиями и в результате может оказать еще более эффективную помощь киберпреступникам. Новая модель лучше понимает контекст кода, а также исправляет сообщения об ошибках и устраняет ошибки программирования. Для потенциального преступника, не имеющего достаточных технических знаний, это бесценный ресурс. В то же время более опытный пользователь может использовать эти улучшенные возможности для дальнейшего совершенствования или даже автоматизации сложных методов действий киберпреступников. Роль GPT-4 в расследовании преступлений GPT-4 можно использовать, чтобы помочь правоохранительным органам автоматизировать и оптимизировать процесс расследования. Анализируя огромные объемы данных, GPT-4 может быстро выявлять закономерности и связи, которые в противном случае можно было бы упустить из виду. Это позволит следователям быстро идентифицировать потенциальных подозреваемых и получить всестороннее представление о месте преступления и его окрестностях. Кроме того, GPT-4 можно применять для создания подробных отчётов по уголовным делам. Анализируя доказательства, GPT-4 может создавать исчерпывающие отчеты, которые можно использовать для поддержки уголовных дел в суде. Это могло бы значительно сократить количество времени и ресурсов, затрачиваемых на расследования, что позволило бы правоохранительным органам сосредоточиться на других важных задачах. GPT-4 также можно использовать для выявления потенциальных связей между делами и подозреваемыми. Анализируя огромные объемы данных, GPT-4 может выявлять связи между различными делами и подозреваемыми, позволяя правоохранительным органам быстрее и точнее выслеживать подозреваемых. Кроме того, GPT-4 может помочь сотрудникам правоохранительных органов лучше понять контекст уголовных дел. Анализируя доказательства и материалы дела, GPT-4 может генерировать подробные отчеты об истории и контексте дела, позволяя правоохранительным органам лучше понять, почему произошло преступление и как лучше всего подойти к расследованию. В целом, GPT-4 может произвести революцию в методах расследования правоохранительных органов. Автоматизируя и оптимизируя процесс расследования, GPT-4 может сэкономить время и ресурсы правоохранительных органов, позволяя им сосредоточиться на других важных задачах. Кроме того, способность GPT-4 анализировать огромные объемы данных и выявлять закономерности и связи может помочь сотрудникам правоохранительных органов быстро идентифицировать потенциальных подозреваемых и получить всестороннее представление о месте преступления. Поскольку GPT-4 продолжает развиваться, его потенциальное применение в расследованиях правоохранительных органов будет только расти. Преимущества GPT-4 в улучшении криминалистического анализа Используя GPT-4 можно быстро выявлять соответствующие доказательства и создавать подробные отчеты. Кроме сравнения доказательств по нескольким делам, помогая следователям выявлять закономерности и связи между делами, GPT-4 можно использовать для выявления расхождений в показаниях свидетелей, что позволяет следователям быстро выявлять любые несоответствия. GPT-4 может не только помочь повысить точность криминалистического анализа, но и сократить время, необходимое для проведения анализа. Автоматизируя определенные задачи, GPT-4 может сократить время, затрачиваемое следователями на ручной анализ улик. Это может помочь снизить общую стоимость расследования, позволяя правоохранительным органам сосредоточить свои ресурсы на других областях. Потенциальные недостатки, связанные с использованием GPT-4 в расследовании преступлений Во-первых, GPT-4 ограничен в своей точности. Хотя его способность генерировать текст впечатляет, он не всегда может точно интерпретировать нюансы языка и контекста. Это может привести к ошибкам при толковании юридических документов или, например, при предоставлении юридических консультаций. Во-вторых, GPT-4 может быть уязвим для использования злоумышленниками. Имея доступ к этой технологии, преступники потенциально могут использовать ее для создания ложных доказательств или вводящих в заблуждение юридических рекомендаций для достижения своих собственных целей. Это может привести к неправомерным осуждениям и задержкам в отправлении правосудия. Наконец, GPT-4 может привести к эрозии человеческого опыта в юридических вопросах. Это может быть особенно проблематично в таких областях, как юридический анализ, где людям необходимо интерпретировать нюансы языка и контекста, чтобы делать точные выводы. Использование GPT-4 в правоохранительных органах вызывает ряд этических вопросов и соображений. Например, эту технологию можно использовать для создания ложной информации, которая потенциально может быть использована для манипулирования расследованиями. Кроме того, использование GPT-4 вызывает опасения по поводу конфиденциальности, поскольку эту технологию можно использовать для анализа больших объемов данных без ведома или согласия тех, за кем ведется наблюдение. Кроме того, использование GPT-4 в правоохранительных органах вызывает вопросы о достоверности информации, которую он генерирует. Технология основана на алгоритмах машинного обучения, которые могут давать неточные или необъективные результаты, если их не обучить или не контролировать должным образом. GPT-4 для Smart Policing: прогнозирование и предотвращение GPT-4 использует алгоритмы обработки естественного языка (NLP) и машинного обучения для анализа огромных объемов данных из различных источников, таких как социальные сети, новостные статьи и отчеты полиции. Выявляя закономерности и тенденции в этих данных, система ИИ позволяет прогнозировать потенциальную преступную деятельность и помогать правоохранительным органам принимать упреждающие меры для ее предотвращения. Это не только помогает снизить уровень преступности, но и позволяет полицейским управлениям более эффективно распределять свои ресурсы, гарантируя, что сотрудники будут развернуты там, где они больше всего нужны. Одним из ключевых преимуществ использования GPT-4 для «умной полиции» является его способность выявлять потенциальные точки доступа для преступной деятельности. Анализируя исторические данные о преступлениях и другую соответствующую информацию, система GPT - 4 может точно определить области, в которых с наибольшей вероятностью могут произойти криминальные инциденты. Это позволяет правоохранительным органам сосредоточить свои усилия на этих областях повышенного риска, что приводит к более целенаправленному и эффективному подходу к предупреждению преступности. Кроме того, tGPT-4 также может помочь в прогнозировании вероятности совершения конкретных видов преступлений в определенных областях. Например, он может определить, является ли конкретный район более подверженным кражам со взломом, нападениям или правонарушениям, связанным с наркотиками. Эта информация может иметь неоценимое значение для полицейских подразделений, поскольку позволяет им разрабатывать целевые стратегии для решения конкретных проблем с преступностью в различных сообществах. Помимо прогнозирования преступлений, GPT- 4 также может играть решающую роль в предупреждении преступности, выявляя потенциальные угрозы и риски до того, как они материализуются. Например, система GPT - 4 может отслеживать платформы социальных сетей и онлайн-форумы, чтобы обнаруживать любые признаки потенциальной преступной деятельности. Оповещая правоохранительные органы об этих угрозах, GPT-4 позволяет им принимать быстрые меры для предотвращения совершения преступлений. Систему GPT-4 искусственного интеллекта также можно использовать для анализа записей видеонаблюдения, помогая правоохранительным органам более эффективно выявлять и выслеживать преступников. Рекомендации бизнес – структур и государственных органов Запада по безопасному использованию ChatGPT В ответ на давление общественности, требующей обеспечить безопасность генеративных моделей ИИ, исследовательская некоммерческая организация Partnership on AI (PAI) разработала ряд рекомендаций по ответственному производству и распространению контента, созданного ИИ. Эти рекомендации были подписаны группой из десяти компаний, включая OpenAI, которые обязались придерживаться ряда лучших практик. К ним относится информирование пользователей о том, что они взаимодействуют с контентом, созданным ИИ (например, с помощью водяных знаков, отказов от ответственности или отслеживаемых элементов). В какой степени это позволит предотвратить практические описанные злоупотребления, пока неясно. Кроме того, остаются вопросы о том, как можно эффективно обеспечить точность контента, создаваемого генеративными моделями ИИ, и как пользователи могут понять, откуда поступает информация, чтобы проверить ее. Европейский союз в мае 2023 года завершил работу над законодательными мерами, направленными на регулирование систем ИИ в рамках готовящегося закона об ИИ. Но, несмотря на некоторые предложения о том, что системы ИИ общего назначения, такие как ChatGPT, должны быть отнесены к системам высокого риска и, как следствие, отвечать более высоким нормативным требованиям, остается неопределенность в отношении того, как это может быть практически реализовано. В мае 2023 года на голосовании в Европарламенте депутаты предварительно одобрили усиленную версию Закона об искусственном интеллекте. После его принятия будут запрещены технологии распознавания лиц в общественных местах, а также применение полицией предиктивной аналитики. Американцы таких запретов на государственном уровне не вводят. Уже отмеченные последствия для правоохранительных органов и неизбежность совершенствования технологии заставляют задуматься о том, какое будущее ожидает LLM. Относительно скоро после того, как ChatGPT стал интернет-сенсацией, компания Microsoft объявила об инвестировании 10 миллиардов долларов США в ChatGPT в январе 2023 года. Очень быстро после этого компания представила первые попытки интегрировать услуги LLM в различные приложения компании, в частности, в новую версию поисковой системы Bing. В то же время другие конкуренты, такие как Google, объявили о выпуске собственного разговорного ИИ под названием BARD, за которым, вероятно, последуют и другие. В связи с этим возникает вопрос о том, насколько более мощными могут стать подобные модели при поддержке крупных технологических компаний, а также о том, как частный сектор намерен бороться со сценариями злоупотреблений. В будущем всеобщая доступность больших языковых моделей может создать и другие проблемы: интеграция других сервисов ИИ (например, для создания синтетических медиа) может открыть совершенно новое измерение потенциальных приложений. Они могут включать мультимодальные системы ИИ, которые объединяют разговорные чат-боты с системами, способными создавать синтетические медиа, например, очень убедительные deepfakes, или содержать сенсорные способности, такие как зрение и слух. Другие потенциальные проблемы включают появление "тёмных LLM", которые могут быть размещены в "темной паутине" для предоставления чат-бота без каких-либо гарантий, а также LLM, которые обучаются на определенных - возможно, особенно вредных - данных. Наконец, существует неопределенность относительно того, как LLM-сервисы могут обрабатывать данные пользователей в будущем - будут ли храниться разговоры, что может привести к раскрытию конфиденциальной личной информации неавторизованным третьим лицам? И если пользователи генерируют вредный контент, следует ли сообщать об этом правоохранительным органам? Крупные бизнес – компании пошли по пути запретов. В мае 2023 года Apple запретила своим сотрудникам использовать на работе ChatGPT и другие ИИ – боты. До этого с такими запретами выступила южнокорейская Samsung Electronics. Рекомендации полицейских форумов Поскольку в ближайшем будущем ожидается рост влияния таких LLM, как ChatGPT, крайне важно, чтобы правоохранительное сообщество подготовилось к тому, как их положительное и отрицательное применение может повлиять на их повседневную деятельность. Учитывая потенциальный вред, который может быть нанесен в результате злонамеренного использования LLM, крайне важно повысить осведомленность в этом вопросе, чтобы гарантировать, что любые потенциальные лазейки будут обнаружены и закрыты как можно быстрее. LLM оказывают реальное воздействие, которое можно наблюдать уже сейчас. Правоохранительным органам необходимо понять это влияние на все потенциально затрагиваемые сферы преступности, чтобы иметь больше возможностей для прогнозирования, предотвращения и расследования различных видов преступных посягательств. Сотрудникам правоохранительных органов необходимо начать развивать навыки, необходимые для максимально эффективного использования таких моделей, как ChatGPT. Это означает понимание того, как можно использовать эти типы систем для накопления знаний, расширения имеющегося опыта и понимания того, как извлечь необходимые результаты. Это означает, что следователи и оперативные работники должны уметь оценивать контент, создаваемый генеративными моделями ИИ, с точки зрения точности и потенциальной предвзятости. Поскольку технологический сектор вкладывает значительные средства в эту область, крайне важно взаимодействовать с соответствующими заинтересованными сторонами для обеспечения того, чтобы соответствующие механизмы безопасности оставались ключевым моментом, который постоянно совершенствуется. Правоохранительные органы, вероятно, захотят изучить возможности создания специализированных LLM, обученных на их собственных, специализированных данных, чтобы использовать этот тип технологии в своей работе при условии учета основных прав. Такой тип использования потребует соответствующих процессов и мер предосторожности для обеспечения конфиденциальности информации, а также тщательного изучения и устранения любых потенциальных предубеждений до начала использования. Крайне важно отслеживать другие возможные ветви этого развития, поскольку темные LLM, обученные содействовать вредоносному выходу, могут стать ключевой криминальной бизнес-моделью будущего. Это создает новую проблему для правоохранительных органов, поскольку злоумышленникам станет как никогда легко совершать преступные действия без необходимых предварительных знаний. Елена Ларина Владимир Овчинский Источник: vk.com Комментарии: |
|