Ричард Саттон о будущем искусственного интеллекта

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Ричард Саттон – один из создателей современного искусственного интеллекта и обладатель премии Тьюринга представил своё видение развития новой технологии. На волне различных прогнозов его интервью вызвало определённый ажиотаж.

Его основные тезисы:

Р. Саттон не уверен, что простое увеличение вычислительной мощности ИИ приведёт к появлению машин, мыслящих как люди. Более того, он утверждает, что нынешняя одержимость расширением глубокого обучения может сдерживать полную реализацию потенциала ИИ.

Он убеждён, что настоящий прорыв произойдет, когда ИИ перестанет полагаться на тщательно отобранные наборы данных и начнёт учиться на собственном опыте, подобно ребёнку.

«Если нам нужен настоящий интеллект, ИИ должен учиться на практике, методом проб и ошибок. Вычисления – не панацея. Увеличение вычислительной мощности помогает, но не является ключевым компонентом интеллекта».

Это смелое заявление в то время, когда такие гиганты в области искусственного интеллекта, как OpenAI, Google DeepMind и Anthropic, спешат увеличивать свои модели, передавая им всё большие объёмы данных и вычислений в погоне за человеческим уровнем мышления. Однако Саттон считает этот подход ошибочным, утверждая, что настоящий прогресс будет достигнут за счёт совершенствования алгоритмов, управляющих обучением машин, а не просто за счёт их расширения (обучение с подкреплением).

Для пояснения: Этот метод был широко использован в AlphaGo, системе искусственного интеллекта, разработанной Google DeepMind, которая потрясла мир в 2016 году, победив чемпиона мира по игре в го Ли Седоля. Искусственный интеллект обучался не путём запоминания человеческих стратегий, а путём проведения миллионов игр против самого себя, совершенствуя свою стратегию с помощью обучения с подкреплением.

После этого появилось ещё и обучение с подкреплением на основе обратной связи с человеком (RLHF). RLHF позволяет моделям ИИ совершенствовать свои ответы на основе взаимодействия с пользователем, делая их более коммуникативными и соответствующими ожиданиям человека.

«Сегодня системы ИИ в основном полагаются на предварительно обработанные данные, а не на взаимодействие с реальным миром. Это необходимо изменить, если мы хотим, чтобы ИИ действительно понимал и адаптировался».

Р. Саттон оценивает вероятность того, что ИИ достигнет уровня человеческого интеллекта в течение пяти лет, как один к четырём, и вероятность в 50% в течение 15 лет.

«Всё ещё необходимы прорывы. Но мы приближаемся к цели. Самое главное – как заставить системы ИИ учиться на опыте более естественным образом, а не просто получать с ложечки размеченные наборы данных».

По словам Саттона, одна из самых сложных задач – научить ИИ понимать долгосрочное планирование и абстракцию, то есть способность разбивать сложные проблемы на более мелкие, управляемые части, как это делают люди.

«Если я скажу вам перейти улицу, вы не будете думать о каждом мельчайшем движении мышц. Вы будете думать о цели: перейти улицу. ИИ должен обучаться именно так, на более высоком уровне абстракции».

Р. Саттон считает, что лучший способ думать о будущем ИИ – это рассматривать его не как инструмент или раба, а как ребенка, который учится, развивается и в конечном итоге обретает независимость.

«Мы не относимся к нашим детям как к машинам, которыми нужно управлять. Мы направляем их, обучаем, но в конечном итоге они вырастают в самостоятельных существ. ИИ не станет исключением».

Отношение к ИИ как к чему-то, над чем можно доминировать или порабощать, может привести к противостоянию, а не к сотрудничеству. Вместо этого он утверждает, что подобно тому, как дети усваивают ценности человеческого общества посредством наблюдения и взаимодействия, ИИ необходимо обучать, а не программировать, чтобы он соответствовал человеческим ценностям.

«Дело не в контроле, а в понимании. Когда вы воспитываете ребёнка, вы не просто устанавливаете жёсткие правила и ожидаете послушания. Вы проявляете доброту, справедливость и сотрудничество, и ребёнок усваивает эти ценности. ИИ может учиться таким же образом».


Источник: vk.com

Комментарии: