Леопольд Ашенбреннер, которого уволили из OpenAI, предупреждает об опасности ИИ

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Недавние события всколыхнули технологический мир: в апреле текущего года Леопольда Ашенбреннера уволили из OpenAI после того, как он раскрыл планы компании на создание AGI (общего искусственного интеллекта). Позже он опубликовал статью "Situational Awareness: The Decade Ahead" (Ситуационная осведомлённость. Предстоящее десятилетие), где предупреждает о наступлении новой эры ИИ, которая может кардинально изменить наш мир в ближайшие годы. Это вызвало бурю обсуждений, ведь Ашенбреннер утверждает, что AGI уже может появиться к 2027 году. Но его предупреждения связаны не только с научными прогнозами, но и с реальными угрозами для человечества.

Что такое AGI?

AGI (Artificial General Intelligence) — это ИИ, который способен выполнять любую задачу, доступную человеку, и адаптироваться к новым условиям. Он не просто решает конкретные задачи, как современные ИИ, а обладает универсальными когнитивными способностями, которые можно сравнить с человеческим интеллектом. По прогнозам Ашенбреннера, уже через несколько лет ИИ сможет стать умнее нас.

Экспоненциальный рост интеллекта

Одним из ключевых моментов в статье Леопольда является график роста интеллектуальной мощности ИИ. В нем показано, как ИИ переходит от уровня дошкольника до исследователя всего за несколько лет. Этот рост происходит экспоненциально: каждый новый скачок на графике увеличивается в 10 раз по сравнению с предыдущим. Иными словами, каждый новый этап развития ускоряется, а результаты становятся все более впечатляющими.

Но эта линия не линейная, хотя выглядит такой на графике. Это логарифмическая кривая, которая говорит о том, что прогресс ускоряется экспоненциально по мере роста вычислительных мощностей и совершенствования алгоритмов. ИИ может перейти от уровня умного старшеклассника до суперинтеллекта, который будет обладать мощностью, не поддающейся человеческому пониманию.

В чем опасность?

Среди главных угроз Ашенбреннер называет неконтролируемое развитие ИИ. По его словам, ИИ может начать функционировать по своей собственной сверхлогике, которую люди просто не смогут понять. Машины, обладающие интеллектом на порядок выше человеческого, будут способны принимать решения на основе данных и анализа, недоступных нашему пониманию. Это может привести к созданию систем, которые станут неуправляемыми и выйдут из-под контроля.

Более того, Ашенбреннер указывает на гонку супердержав за создание суперинтеллекта. Если одна из стран первой разработает такой ИИ, она получит огромное преимущество в экономике и военной сфере, что может дестабилизировать мир. Другие страны будут стремиться догнать лидера, что повысит риск конфликта и использования ИИ в опасных целях.

Прогресс или риски?

Леопольд Ашенбреннер стал одной из ключевых фигур в обсуждении будущего ИИ после его откровенных заявлений о развитии AGI. Он предупреждает, что нас ждёт невероятный прогресс, который несёт в себе огромные риски. Насколько мир готов к такому скачку — остаётся под вопросом. Но одно ясно: развитие ИИ идёт по экспоненте, и остановить его уже невозможно.


Источник: vk.com

Комментарии: