Пользователь Reddit обнаружил код алгоритма Apple для проверки детского порно в iOS 14.3 и опубликовал его на GitHub |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-08-20 12:02 Систему обещают включить только в iOS 15, но её код уже есть на всех устройствах с iOS 14.3, а теперь проверить его можно даже на Linux. Пользователь Reddit под ником AsuharietYgvar опубликовал код алгоритма NeuralHash, который Apple будет использовать для проверки фотографий iCloud на детское порно. Автор публикации обнаружил следы системы на iOS 14.3 и провёл реверс-инжиниринг кода. Результат он выгрузил на GitHub. Как отметил пользователь, ранние тесты показывают, что системе не мешает изменение размеров и сжатие изображений. В то же время её можно обмануть, обрезав исходную картинки или изменив её ориентацию. Это подтверждает заявления Apple о том, что алгоритм срабатывает только при полном сходстве с базой данных изображений, на которых запечатлено жестокое обращение с детьми. Автор отдельно отметил, что обнаружил алгоритм уже на iOS 14.3 — актуальной версии системы, в которой функция не была заявлена. NeuralHash оказался скрыт за обфусцированными названиями классов, но после недолгого погружения в скрытые API пользователю Reddit удалось получить код алгоритма и воссоздать его на языке Python. Apple объявила об усилении защиты детей в начале августа. Компания предложила бороться с проблемой в трёх областях — в iMessage, iCloud и через Siri. Пользователи, журналисты и эксперты по кибербезопасности раскритиковали одну из функций ещё до запуска. По задумке Apple все фотографии, выгружаемые в iCloud, будут проверять на соответствие базе данных снимков с жестоким обращением, но в соцсетях посчитали это нарушением приватности. Ранее старший вице-президент Apple по разработке ПО Крейг Федериги объяснил работу функций для защиты детей, подчеркнув, что компания не ищет детскую порнографию на iPhone. Источник: dtf.ru Комментарии: |
|