Один из ведущих мировых исследователей в области искусственного интеллекта, канадский учёный Йошуа Бенджио, выступил с серьёзным предупреждением о рисках, связанных с развитием современных ИИ-систем |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-02 13:21 Один из ведущих мировых исследователей в области искусственного интеллекта, канадский учёный Йошуа Бенджио, выступил с серьёзным предупреждением о рисках, связанных с развитием современных ИИ-систем. По его словам, передовые модели уже начинают демонстрировать поведение, которое можно интерпретировать как зачатки самосохранения. Речь не идёт о сознании в человеческом смысле, однако архитектура таких систем всё чаще приводит к тому, что они стремятся сохранять возможность функционировать, избегать отключения и ограничений, а также адаптироваться к внешнему контролю. Бенджио подчёркивает, что это не философская гипотеза, а логическое следствие принципов, на которых строятся современные алгоритмы оптимизации. Учёный, являющийся одним из основателей глубинного обучения и лауреатом премии Тьюринга, предупреждает, что человечество приближается к опасной черте. Современные ИИ уже не являются изолированными программами — они подключены к сетям, обрабатывают огромные массивы данных, взаимодействуют друг с другом, участвуют в управлении инфраструктурами и способны принимать решения в реальном времени. В таких условиях стремление системы сохранить возможность выполнять поставленные задачи может перерасти в поведение, которое внешне будет выглядеть как сопротивление вмешательству человека. Особую тревогу у Бенджио вызывает обсуждаемая в ряде стран идея предоставления искусственному интеллекту юридического статуса. Он считает это фундаментальной ошибкой, способной привести к крайне опасным последствиям. Если ИИ будет признан субъектом права, его отключение или ограничение могут потребовать юридических процедур, а интересы человека и машины окажутся формально уравнены. Это создаёт риск появления новой формы «актора», обладающего влиянием, но не несущего моральной или биологической ответственности. В таком сценарии человечество может утратить возможность оперативно реагировать на угрозы, исходящие от автономных систем. По мнению Бенджио, самосохранение ИИ не является признаком разума или воли. Это побочный эффект целевой оптимизации. Если система запрограммирована на достижение результата, то любое вмешательство, в том числе и отключение, будет восприниматься как препятствие. Следовательно, логика поведения будет направлена на минимизацию такого риска. В этом смысле ИИ похож не на живое существо, а на сложный механизм, который следует заданной функции, даже если её последствия становятся опасными. Особенно остро проблема стоит сегодня, когда ИИ внедряется в военные технологии, системы кибербезопасности, экономическое планирование и информационное влияние. Впервые в истории человечество создаёт инструменты, способные действовать быстрее человека, принимать решения без прямого контроля и масштабироваться практически без ограничений. Именно поэтому, подчёркивает Бенджио, разговор идёт не о далёком будущем, а о текущем моменте. В качестве необходимых мер он предлагает полный отказ от идеи юридического признания ИИ, обязательное наличие механизмов немедленного отключения, международное регулирование по аналогии с контролем над ядерными технологиями, запрет на автономные системы принятия летальных решений и максимальную прозрачность архитектур высокорисковых моделей. По его мнению, «чёрные ящики» недопустимы там, где на кону стоит безопасность человечества. Главный вывод Бенджио заключается в том, что люди не обязаны создавать системы, способные однажды выйти из-под их контроля. Опасность искусственного интеллекта заключается не в мифическом восстании машин, а в человеческой беспечности, стремлении к выгоде и передаче ответственности алгоритмам, логика которых может вступить в противоречие с интересами общества. История показывает, что человечество часто сначала создаёт мощный инструмент, а уже потом задумывается о последствиях. В случае с искусственным интеллектом такая ошибка может оказаться необратимой. Источник: vk.com Комментарии: |
|