Автономный ИИ может спровоцировать благоприятный «взрыв интеллекта» — или стать моментом, когда люди потеряют над ним контроль

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Человечеству придётся к 2030 году решить, стоит ли взять на себя «высший риск» — позволить системам искусственного интеллекта самостоятельно развивать свои способности и алгоритмы, заявил один из ведущих мировых учёных в области искусственного интеллекта.

Джаред Каплан, главный научный сотрудник и совладелец американского стартапа Anthropic стоимостью 180 млрд долларов (?135 млрд), отметил, что стоит выбор относительно того, какую автономию можно предоставить системам ИИ для эволюции.

Этот шаг может вызвать благоприятный «взрыв интеллекта» — или стать моментом, когда люди потеряют над ним контроль.

В интервью о крайне конкурентной гонке за достижение искусственного общего интеллекта (AGI) — иногда называемого сверхинтеллектом — Каплан призвал международные правительства и общество принять то, что он назвал «самым важным решением».

Каплан отметил, что хотя усилия по согласованию быстро развивающейся технологии с интересами человека до сих пор были успешными, освобождение её для рекурсивного самосовершенствования «в некотором смысле является высшим риском, потому что это похоже на то, как отпустить ИИ». Решение может быть принято между 2027 и 2030 годами, добавил он.

Каплан считает, что если позволить рекурсивному самосовершенствованию, как иногда называют этот процесс, развиваться бесконтрольно, то возникнут два риска.

«Во-первых, теряете ли вы контроль над ситуацией? Знаете ли вы вообще, что делают системы ИИ? Главный вопрос: полезны ли системы ИИ для человечества? Помогают ли они? Будут ли они безобидными? Понимают ли они людей? Позволят ли они людям и дальше управлять своей жизнью и миром?»

Второй риск связан с безопасностью, поскольку самообучающиеся ИИ превосходят человеческие возможности в области научных исследований и технологического развития.

«Кажется, очень опасно, если он попадёт не в те руки, — Вы можете представить, как какой-нибудь человек [решает]: «Я хочу, чтобы этот ИИ был просто моим рабом. Я хочу, чтобы он исполнял мою волю». Я думаю, что предотвращение захвата власти — предотвращение злоупотребления технологией — тоже очень важно».


Источник: vk.com

Комментарии: