ПРАВОВАЯ ИНИЦИАТИВА #1 — Регулирование использования ИИ?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


XXI век — это эпоха цифровых технологий и искусственного интеллекта. Многофункциональные High-Tech и высокие гуманитарные технологии High-Hume меняют не только технологии, но и наше мышление, наше взаимодействие с информацией, обществом и друг с другом.

Одним из самых ярких примеров является Япония и ее концепция «Общества 5.0» — сверхумного общества, где ИИ и роботы внедряются во все сферы жизни: образование, здравоохранение, городское управление. Уже сегодня в Токио чат-боты на базе ИИ составляют документы для жителей, а системы анализа больших данных помогают быстрее принимать решения на уровне городских властей.

При этом «Общество 5.0» ставит сложные этические и правовые вопросы:

Как отделить решения человека от решений ИИ?

Кто несет ответственность за действия роботов?

Можно ли считать протез с ИИ частью человека?

Кому принадлежит произведение, созданное искусственным интеллектом?

В мире появляются первые «электронные лица» — роботы, наделенные правосубъектностью, как, например, София, получившая гражданство в Саудовской Аравии. В Европе обсуждают создание единого правового реестра роботов-андроидов, чтобы контролировать их действия и разграничивать ответственность человека и машины. Япония при этом старается сочетать инновации с этикой: права человека, разнообразие, инклюзивность и устойчивость — ключевые принципы использования ИИ.

В России подход к ИИ более осторожный и ориентирован на контроль и безопасность. С 2020 года действуют экспериментальные правовые режимы (ЭПР) — «песочницы», где компании могут тестировать инновации и ИИ в реальных условиях без риска нарушить закон. Например, беспилотники проверяются на трассе М-11 «Нева» и в Татарстане, а персональные ИИ-помощники внедряются в здравоохранение. Создано более 130 национальных стандартов в сфере ИИ, разработан Кодекс этики, который защищает права человека, устанавливает прозрачность и ответственность создателей ИИ, а новые законы планируют классифицировать системы ИИ по уровню риска, чтобы безопасно регулировать их использование.

И Япония, и Россия сталкиваются с одними и теми же вызовами: как сделать так, чтобы ИИ улучшал жизнь, а не заменял человеческое общение, не манипулировал сознанием и не провоцировал «цифровое слабоумие» у нового поколения, полностью погружённого в гаджеты? В Японии технологии развиваются быстрее, но гражданам приходится самим быть внимательными, в России развитие ИИ происходит под жестким контролем, но с прозрачными этическими рамками.

Будущее ИИ зависит не только от технологий, но и от того, как общества научатся сочетать инновации, этику и безопасность, чтобы искусственный интеллект стал помощником человека, а не заменой его опыта и ответственности.

Автор: Маруся Ильюшихина


Источник: vk.com

Комментарии: