«Ни в коем случае»: Касперская призвала россиян не сдавать свои биометрические данные |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2021-10-08 05:26 Недавно Министерство цифрового развития, связи и массовых коммуникаций РФ выступило с инициативой провести годовой эксперимент по размещению россиянами своих биометрических данных через специальное приложение "Биометрия", "с применением мобильного телефона, смартфона, планшетного компьютера, а также использованию указанной системы государственными органами, банками и иными организациями с применением указанных биометрических персональных данных при предоставлении отдельных услуг". Как уточнили ТАСС представители ведомства, граждане, которые зарегистрируются в приложении и сдадут с его помощью два вида биометрии (образцы голоса и снимки лица), получат доступ к широкому перечню цифровых сервисов в государственных органах, банках и прочих организациях. Ранее Минцифры предложило широко использовать биометрию на экзаменах в вузах: "Проект данного документа разработан в целях распространения возможности использования дистанционных образовательных технологий, обеспечивающих идентификацию личности посредством ЕБС (Единой биометрической системы - Прим.)". Ещё чуть раньше подведомственное Департаменту информационных технологий (ДИТ) Москвы ГКУ "Инфогород" заключило контракт с системным интегратором ООО "ТаскДата Рус" на доработку "Системы управления доступом к информационным системам и ресурсам города Москвы" в плане внедрения биометрии в портал mos.ru. Неймётся цифровизаторам, неймётся. "Система биометрической идентификации — это система искусственного интеллекта, у которой не бывает 100% качества. Ей всегда свойственны ошибки первого и второго рода: то есть она может распознать «неправильный» объект как правильный или не пропустить правильный объект. То есть всегда остаётся вероятность, что система вас не распознает или распознает вас как кого-то другого, на кого вы похожи. Качество распознавания лиц сейчас достигает максимум 99% — обычно разработчики хвалятся показателями в районе 97-98%, при этом не объясняя, какого рода ошибки таятся в оставшихся 1-3%. А обывателю кажется, что 99% точности — это очень круто. Но что такое 99%, например, в Москве? В городе проживают или бывают днем примерно 16-18 миллионов человек, значит, с 180 тысячами лиц москвичей может произойти ошибка первого или второго рода — то есть они будут не распознаны или спутаны с кем-то ещё. Если применять биометрию широко, то транзакций распознавания будут миллионы в день — на транспорте, в банках, на проходных и так далее, — то есть и ошибок будут сотни тысяч или миллионы. А нужны ли нам такие риски? Поэтому прежде, чем широко внедрять биометрию, мне кажется, нужно десять раз подумать". "С электронными услугами тоже всё довольно сложно. Моё глубокое убеждение: обязательно надо сохранять параллельную бумажную систему. Сколько бы лет ни прошло, нужно хранить бумагу, как раз на случай сбоев в электронной системе. Резервные копии, конечно, делаются. Но электронная подделка документов всё равно возможна, например, в результате целенаправленного взлома. И более того, такая подделка проще и с ней легче замести следы: если документы подделывает айтишник с высокими правами доступа, то он и журналы своего доступа тоже подделает. Кроме того, все форматы и носители данных живут не более 15-20 лет, например, сейчас огромная проблема прочесть дискеты 1990-х годов. Ну и проблема отключения электричества в случае ЧП, катастроф, войн — никуда не девается. Поэтому, на мой взгляд, нельзя делать электронную копию оригиналом. Бумажные носители нужно по-прежнему считать оригиналами и сохранять как базовый инструмент. Конечно, для электронных документов должны быть многоуровневые системы защиты, перекрёстные системы хранения, автоматическое резервирование; должны использоваться методы связанных списков, когда в документ включается его криптографический отпечаток — контрольная сумма, чтобы если в документе были произведены изменения, это было видно. Это всё энтузиасты электронного документооборота нам обещают, конечно; но факторы риска — человеческий фактор, коррупция, постоянные утечки, ненадёжность носителей и недолговечность форматов — остаются". "Много разных проблем (что касается искусственного интеллекта - Прим.). Первая — доверять ли решениям искусственного интеллекта и передавать ли ИИ право автономного принятия решений. Предположим, медицинская система ИИ вас продиагностировала, поставила диагноз, однако он оказался ошибочным. Кто виноват? Когда диагноз ставит «живой» врач, то вероятность ошибки тоже есть, но тогда есть ответственный субъект. А здесь что? Никто не виноват в вашей инвалидности, мы уже поставили новую версию? Или, например, возьмём беспилотный транспорт. Одна ситуация, когда человека задавил живой водитель — это очень печальное событие, но здесь есть тот, кто понесёт за это ответственность. И другое дело — беспилотник-убийца, а таких случаев, когда беспилотные автомобили сбивали людей, за последние три-четыре года уже больше 40. Кто несёт при этом ответственность? Разработчик системы? Нет, он просто разработал систему. Эксплуатант системы? Тоже вряд ли, он лишь использует результат труда разработчика. То есть ответственного — нет, пока законодателям непонятно, что с этим делать. А деньгами — страховкой, как предлагают на Западе, вопросы жизни и смерти не решаются. Вторая проблема: нужно ли наделять искусственный интеллект субъектностью, предоставлять ему какие-то права? Мне кажется, ответ на этот вопрос очевиден: конечно, нет. Искусственный интеллект — это робот, раб человека. И если мы предоставим ему хоть какие-то «права», мы не сможем справиться с возможными неприятными последствиями «расчеловечивания» человека. Третье — умышленное нанесение вреда человеку с помощью ИИ. Должно быть прямо постулировано, что искусственный интеллект не должен вредить человеку, должен работать исключительно на благо человека. Нельзя использовать ИИ для дискриминации людей – по любым основаниям, дохода, возраста, расы, пола, здоровья и так далее — потому что по Конституции РФ мы все равны, если иное не установлено судом или законом. Ну и есть проблема прозрачности ИИ: алгоритмы принятия решений и политики ИИ, заложенные в систему ИИ разработчиками, должны быть открыты и прозрачны. В этом году на панельной дискуссии на форуме «Армия-2021» высказывалась идея о том, что при любом взаимодействии с ИИ нужно ясно информировать пользователя об этом и все решения ИИ нужно маркировать «сделано искусственным интеллектом». Чтобы понимать, кем это решение было принято — человеком или машиной. Технологии ИИ отличаются тем, что они обучаемы на данных, совершают миллионы операций и не дают объяснений того, как и почему решение принято. Обученная на данных нейронная сеть — это набор готовых фильтров, в которых нет информации о том, на каких данных делалось обучение, какие объекты и каким образом система обучена распознавать. Миллионы операций нейронной сети нельзя проверить вручную, невозможно понять, на основе чего принято то или иное решение. Сейчас в большинстве случаев даже разработчик не может этого объяснить и обосновать. Это так называемая проблема «чёрного ящика» искусственного интеллекта, которая в свою очередь порождает проблему доверия к решениям ИИ и оспаривания их. Сейчас решение ИИ в отношении людей, как правило, имеет статус финальности. Например: система скоринга клиентов в банке почему-то отказала заёмщику в кредите, сочтя его недостаточно надёжным. Как гражданину выйти из этой ситуации — непонятно, потому что непонятны причины принятия именно такого решения — и сейчас нет способа оспорить решение ИИ. Далее, у него в бюро кредитных историй фактически появляется клеймо «подозрительный заёмщик», ведь ему уже хотя бы раз отказали. И этого по сути также нельзя оспорить. Подобных проблем много, поэтому конечное решение всегда должно оставаться за человеком, например, как это сейчас реализовано в ГИБДД — вам приходит извещение о нарушении правил дорожного движения, где сказано: «Я, капитан полиции такой-то, зафиксировал с камеры видеонаблюдения, что ваш автомобиль нарушил такие-то правила». И стоит подпись. Понятно, что это формальность — но, как минимум, здесь есть субъект права, которому вы что-то можете предъявить. И это правильный подход. А если искусственный интеллект будет принимать решение совершенно самостоятельно — это неправильно". "Некоторые чиновники нас прямо загоняют в сторону цифровизации. Но они не до конца понимают, что помимо всяких прочих рисков есть следующий, структурный: в стране появится новая теневая власть, а именно, власть людей, создающих и использующих цифровые системы — айтишников, цифровых клерков, их начальников. Приведу пример: предположим, город N разрабатывает систему распознавания лиц, которая должна «узнавать», скажем, 10 тысяч лиц для допуска, например, на важные объекты, а также не должна узнавать на улице 5000 других, «секретных" лиц — например, сотрудников спецслужб или высокого начальства. Вы думаете, разработчик устоит перед соблазном дать своему лицу в базе особый статус — разрешить себе допуск куда угодно или, наоборот, сделать себя «невидимкой»? А своего начальника? Коррупция и компрометация данных возникнет моментально — а обнаружить её трудно, нужна очень высокая квалификация. Или, например, система распознавания номеров автомобилей на шлагбаумах. Что помешает разработчику решить: «Добавлю-ка я свой номер авто в систему. Пусть все дворы открывают мне шлагбаумы, а что такого». Уже не говоря о шантаже на основе слежки: например, разработчик или оператор системы ИИ может собирать компрометирующие данные о своём начальстве и сослуживцах и, когда его захотят уволить, или он захочет повышения, он эту подноготную сможет использовать. Естественно, его начальник также будет использовать личные данные граждан и коллег в своей карьерной деятельности. Таких рисков — масса, потому что это же люди, а не просто технологии, в цифровой среде гарантированно будут возникать непредвиденные цифровизаторами мощные социальные эффекты. Вот этого цифровизаторы зачастую не хотят понимать". Источник: general-ivanov1.livejournal.com Комментарии: |
|