Е. Касперский: Что нам делать с искусственным интеллектом? |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2023-05-21 12:43 Я уже немного устал от новостей про Что такое искусственный интеллект? Благодаря маркетологам так называют всё — от новейших генеративных моделей вроде GPT-4 до простейших систем машинного обучения, в том числе тех, которые используются уже десятки лет. Помните Т9 на кнопочных телефонах? Знаете про автоматическую классификацию спама и вредоносных файлов? Используете рекомендации фильма на «Кинопоиске» и Netflix? За каждой из этих привычных технологий стоит алгоритм машинного обучения (ML). Мы внедряем такие технологии в наших продуктах почти два десятка лет, но всегда называли их скромно, «машинное обучение», потому что «искусственный интеллект» сразу наводит на мысли о говорящих космических кораблях и прочей фантастике. Такой волшебный компьютер, полностью способный мыслить по-человечески, должен обладать общим ИИ (AGI) или сверхинтеллектом (ASI). AGI/ASI пока не изобрели и вряд ли изобретут в обозримом будущем.Так вот, если все виды ИИ мерить одной линейкой и всё зарегулировать по полной программе, то практически всей ИТ-индустрии, да и многим смежным, придётся несладко. Ну, к примеру, если у нас потребуют собирать согласие со всех «авторов» данных из обучающей выборки, мы как ИБ-компания окажемся в сложной ситуации. Мы же учимся на зловредах и спаме, авторы которых обычно не оставляют контактных данных. Более того, если данные собираются, а алгоритмы обучаются уже почти 20 лет, то насколько глубоко в прошлое нужно лезть?Поэтому важно, чтобы законодатели слушали не маркетологов, а экспертов индустрии и обсуждали предмет возможного регулирования достаточно конкретно и узко: например, многоцелевые системы, обученные на больших объемах открытых данных, или системы, используемые в принятии решений с высоким уровнем ответственности и риска.Это, конечно, означает, что новые способы применения ИИ потребуют частого пересмотра норм регулирования. Зачем регулировать Честно скажу, в Судный день с участием сверхинтеллекта в ближайшие 100 лет я не верю. Зато верю в кучу разнокалиберных неприятностей от бездумного применения черного компьютерного ящика. Тем, кто не читал наши статьи о блеске и нищете машинного обучения, напомню, что с любым ИИ есть три большие проблемы:
Тут может быть всё: от злонамеренного использования до бездумного следования решениям ИИ. Яркие примеры из жизни: фатальные ошибки автопилота, зачастившие в мемах и даже новостях дипфейки, нелепая ошибка в найме школьных учителей, полицейские арестовали воришку, но это был другой человек, а ИИ-кадровик недолюбливает женщин. А еще на любой ИИ возможны атаки с помощью специально созданных враждебных образцов данных: автомобиль можно обмануть наклейками, из GPT-3 — вытащить личные данные, антивирус или EDR тоже пытаются обмануть. Кстати, атаки на ИИ боевых дронов, описанные в фантастике, уже не кажутся такими фантастичными.В общем, по-настоящему масштабных проблем применение ИИ пока не принесло, но потенциал для серьезных провалов явно имеется. Поэтому регулирование имеет понятные приоритеты:
Цель регулирования — заставить пользователей и создателей ИИ следить за тем, чтобы не повышать этих рисков. И чем серьезней риск, тем активней заставлять. Проще всего, конечно, всё запретить, но пока до этого вроде никто не додумался. Да и запретить ИИ немногим проще, чем запретить компьютеры в целом. Поэтому все разумные попытки регулирования исходят из принципа «чем больше риск, тем строже требования». Машинные модели, используемые для чего-то достаточно тривиального — вроде рекомендации товаров в магазине, — можно не регулировать. По мере нарастания сложности модели или же чувствительности сферы применения к производителям и пользователям системы могут применяться все более драконовские требования.
Последнее кажется избыточно строгой мерой только до тех пор, пока не узнаешь, что уже были прецеденты, когда ИИ неверно назначал приоритеты лечения пациентов с астмой и пневмонией и пытался отправить людей домой вместо палаты интенсивной терапии.Меры принуждения ко всему этому могут варьироваться от штрафа за нарушение ИИ-норм (по примеру европейских штрафов за нарушение GDPR, закона о личных данных) до получения лицензий на ведение деятельности в сфере ИИ и уголовной ответственности за нарушения законодательства (как это предлагают в Китае). А как правильно?Всё сказанное в этом абзаце — мое личное мнение, но оно основано на 30 годах работы в индустрии и деятельном участии в развитии технологий — от машинного обучения до систем, построенных по принципу secure-by-design. Во-первых, регулирование требуется. Без него ситуация в ИИ станет похожа на автодороги без ПДД. Или, ближе к нашей теме, на ситуацию со сбором персональных данных в Интернете конца нулевых — когда почти все собирают всё, что плохо лежит. Наличие регулирования в первую очередь активизирует в компаниях — участниках рынка самодисциплину. Во-вторых, нужны максимальная международная гармонизация регулирования и сотрудничество. Как это происходит с техническими стандартами сотовой связи, Интернета и так далее. В современных геополитических реалиях звучит утопично, но очень хотелось бы. В-третьих, регулирование должно быть не слишком жестким, потому что отрасль динамично развивается, и душить ее — недальновидно. При этом нужен механизм частого пересмотра правил, чтобы поспевать за развитием технологий и рынка. В-четвертых, правила, уровни риска и уровни защитных мер должны вырабатываться с привлечением множества экспертов-практиков. В-пятых, не надо ждать десять лет. Про риски Интернета вещей и уязвимости в промышленном оборудовании мы говорим уже добрых десять лет, а документы вроде EU Cyber Resilience act появились (в черновиках!) только в прошлом году.Всё на этом! Кто дочитал до самого конца — большие молодцы, всем спасибо! Источник: e-kaspersky.livejournal.com Комментарии: |
|