В РЭУ им. Г.В. Плеханова представили комплексный взгляд на этическое регулирование нейротехнологий и искусственного интеллекта

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



В ведущих российских научных журналах — «Известия высших учебных заведений. Прикладная нелинейная динамика» и «Социология науки и технологий» — опубликованы статьи, посвященные одной из самых актуальных проблем современности — коэволюции нейротехнологий и искусственного интеллекта (ИИ), поиску баланса между технологическим прогрессом, этикой и правами человека.

Одним из авторов статей выступил учёный Плехановского университета, член-корреспондент РАН, директор НИИ прикладного искусственного интеллекта и цифровых решений РЭУ им. Г.В. Плеханова Александр Храмов.

Первая статья, опубликованная в журнале «Известия высших учебных заведений. Прикладная нелинейная динамика» (№1, 2026), носит название «Коэволюция нейротехнологий и ИИ: этические вызовы и подходы к регуляции». В ней впервые системно показано, что симбиоз ИИ и нейротехнологий (интерфейсов «мозг-компьютер», методов нейровизуализации и нейромодуляции) порождает риски, выходящие за рамки традиционных проблем алгоритмической предвзятости или автоматизации рабочих мест.

Во второй работе — «Согласование этики и технологий: построение ответственного будущего нейротехнологий и искусственного интеллекта», вышедшей в журнале «Социология науки и технологий» (№4, 2025), — тема развивается через призму социальных аспектов и необходимости опережающего правового регулирования. Особое внимание уделяется анализу российского и международного опыта, включая законодательство Китая, ЕС, США и стран Латинской Америки, а также подчеркивается важность учёта позиции религиозных институтов, призывающих к сохранению человеческого достоинства в эпоху цифровизации.

Соавторами статей выступили первый заместитель председателя Комитета Совета Федерации по бюджету и финансовым рынкам Александр Шендерюк-Жидков и ведущий научный сотрудник Национального университета Сингапура Владимир Максименко.

Ключевые выводы и предложения учёных:

• Пробел в праве: Авторы констатируют отсутствие специализированных законов о «нейроданных» и защите ментальной неприкосновенности.

• Принцип «in dubio pro homo» (в случае сомнений действовать в пользу человека): В качестве основополагающего принципа регулирования предлагается закрепить презумпцию в пользу человека: приоритет личной автономии, права выбора и защиты от дискриминации со стороны алгоритмов.

• Запрет манипуляций: Исследователи настаивают на законодательном запрете разработки систем ИИ, воздействующих на подсознание, и обязательной маркировке контента, созданного генеративным ИИ, для предотвращения дезинформации и манипуляций.

• Уникальность нейрорисков: В отличие от ИИ, нейротехнологии могут напрямую изменять нейронную активность и «взламывать» самые сокровенные аспекты личности — эмоции, воспоминания и бессознательные предпочтения, что требует разработки специальных защитных механизмов.

• Диалог с обществом: Работы подчёркивают необходимость междисциплинарного диалога с участием учёных, разработчиков, юристов, политиков и представителей уязвимых групп населения, чтобы технологический прогресс служил не только экономике, но и общественному благу.

«Мы стоим на пороге реальности, где грань между естественным и искусственным интеллектом, между мыслью и её цифровым отображением становится всё более зыбкой. Наша задача — не запретить развитие, а создать такие "правила игры", которые гарантируют, что новые технологии усилят ресурсы человека, а не подчинят его себе, обеспечивая тем самым защиту человеческого суверенитета и достоинства», — говорит Александр Храмов.


Телеграм: t.me/ainewsline

Источник: vk.com

Комментарии: