Законы робототехники Азимова нуждаются в обновлении из-за использования искусственного интеллекта |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-01-16 16:00 В 1942 году автор научной фантастики Айзек Азимов представил три закона робототехники в рассказе «Беглец». Позднее эти законы были популяризированы в его сборнике рассказов «Я, робот». Первый закон: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Второй закон: робот должен подчиняться приказам, отданным ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону. Третий закон: робот должен защищать своё существование, если такая защита не противоречит Первому или Второму закону. Несмотря на то, что эти законы взяты из художественных произведений, они десятилетиями формировали представления об этике роботов. И по мере того, как системы искусственного интеллекта, которые можно считать виртуальными роботами, становятся всё более сложными и распространёнными, некоторые технологи считают концепцию Азимова полезной для рассмотрения потенциальных мер безопасности, необходимых для ИИ, взаимодействующего с людьми. Но существующих трёх законов недостаточно. Сегодня мы вступаем в эпоху беспрецедентного сотрудничества человека и ИИ, которую Азимов вряд ли мог себе представить. Быстрое развитие возможностей генеративного ИИ, особенно в области генерации языка и изображений, создало проблемы, выходящие за рамки первоначальных опасений Азимова по поводу физического вреда и подчинения. Распространение обмана с использованием ИИ вызывает особую обеспокоенность. Согласно докладу ФБР о киберпреступности в интернете за 2024 год, киберпреступления, связанные с цифровыми манипуляциями и социальной инженерией, привели к убыткам, превышающим 10,3 миллиарда долларов США. В докладе Агентства по кибербезопасности Европейского союза за 2023 год особое внимание уделяется дипфейкам — синтетическим медиафайлам, которые выглядят как настоящие, — как новой угрозе цифровой идентичности и доверию. Дезинформация в социальных сетях распространяется со скоростью лесного пожара. Распространение генеративных ИИ-инструментов усложнило её выявление. Что ещё хуже, статьи, созданные ИИ, так же убедительны или даже более убедительны, чем традиционная пропаганда, а использование ИИ для создания убедительного контента требует очень малых усилий. В обществе растёт популярность дипфейков. Ботнеты могут использовать сгенерированный ИИ текст, речь и видео для создания ложного представления о широкой поддержке любого политического вопроса. Боты теперь способны совершать и принимать телефонные звонки, выдавая себя за людей. Мошеннические звонки с использованием ИИ, имитирующие знакомые голоса, становятся всё более распространёнными, и в любой момент мы можем ожидать всплеска мошенничества с использованием видеозвонков на основе наложенных ИИ аватаров, что позволяет мошенникам выдавать себя за близких людей и нацеливаться на наиболее уязвимые группы населения. Как ни странно, мой собственный отец был удивлён, когда увидел видео, на котором я свободно говорю по-испански, ведь он знал, что я только начинаю изучать этот язык (400 дней на Duolingo!). Достаточно сказать, что видео было отредактировано искусственным интеллектом. Что ещё более тревожно, дети и подростки формируют эмоциональную привязанность к ИИ-агентам и иногда не могут отличить общение с настоящими друзьями от общения с ботами в интернете. Уже были случаи самоубийств, связанных с общением с чат-ботами на основе ИИ. В своей книге «Совместимость с человеком», вышедшей в 2019 году, выдающийся учёный-компьютерщик Стюарт Рассел утверждает, что способность систем искусственного интеллекта обманывать людей представляет собой фундаментальную проблему для социального доверия. Эта обеспокоенность отражена в недавних политических инициативах, в первую очередь в Законе Европейского союза об искусственном интеллекте, который включает положения, требующие прозрачности во взаимодействии с искусственным интеллектом и прозрачного раскрытия информации о контенте, созданном искусственным интеллектом. Во времена Азимова люди и представить себе не могли, что искусственные агенты смогут использовать инструменты онлайн-коммуникации и аватары для обмана людей. Следовательно, нужно внести дополнения в законы о робототехники: Четвёртый закон: робот или искусственный интеллект не должен вводить человека в заблуждение, выдавая себя за человека. Реализация этого Четвертого Закона потребовала бы: Обязательное раскрытие информации об искусственном интеллекте при прямых взаимодействиях, Четкая маркировка контента, созданного искусственным интеллектом, Технические стандарты для идентификации искусственного интеллекта, Правовые основы правоприменения, Образовательные инициативы по повышению грамотности в области искусственного интеллекта. Конечно, всё это легче сказать, чем сделать. Уже ведутся масштабные исследования, направленные на поиск надёжных способов нанесения водяных знаков или обнаружения текста, аудио, изображений и видео, созданных искусственным интеллектом. Но будущее сотрудничества человека и ИИ зависит от сохранения чётких различий между человеком и искусственными агентами. Как отмечается в концепции «этически обоснованного проектирования» IEEE 2022 года, прозрачность систем ИИ имеет основополагающее значение для укрепления общественного доверия и обеспечения ответственного развития искусственного интеллекта. Сложные истории Азимова показали, что даже роботы, которые пытались следовать правилам, часто обнаруживали непредвиденные последствия своих действий. Тем не менее, наличие систем искусственного интеллекта, которые пытаются следовать этическим принципам Азимова, было бы очень хорошим началом. Источник: spectrum.ieee.org Комментарии: |
|