Elon Musk утверждает, что у нас есть только 10-процентный шанс сделать AI Safe

МЕНЮ


Искусственный интеллект
Поиск
Регистрация на сайте
Помощь проекту

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Хотя Элон Муск работает над развитием искусственного интеллекта, он также полагает, что существует астрономически высокая вероятность того, что ИИ будет представлять угрозу для человечества в будущем. В интервью Rolling Stone технологический светильник заявил, что у нас есть только 5-10% -ный шанс на успех в обеспечении безопасности.

Outlook не так хорош

Элон Муск много размышлял над суровыми реалиями и дикими возможностями искусственного интеллекта (AI). Эти соображения оставили его убежденным в том, что нам нужно объединиться с машинами, если мы хотим выжить, и он даже создал стартап, посвященный разработке технологии интерфейса мозга и компьютера (BCI), необходимой для этого. Но, несмотря на то, что его собственная лаборатория, OpenAI, создала ИИ, способную учить себя, Муск недавно сказал, что усилия по обеспечению безопасности ИИ только «имеют успех на 5-10%».

Согласно данным недавней статьи Rolling Stone, Муск поделился этими менее звездными разногласиями с персоналом Neuralink, вышеупомянутым стартапом BCI. Несмотря на активное участие Маска в продвижении ИИ, он открыто признал, что технология приносит с собой не только потенциал, но и обещание серьезных проблем.

Проблемы с безопасностью AI безопасны.

Во-первых, главная цель AI - и то, что OpenAI уже преследует, - это создание ИИ, который не только умнее людей, но и способен самостоятельно учиться без какого-либо человеческого программирования или вмешательства. Там, где эта способность могла его взять, неизвестно.

Тогда есть факт, что машины не имеют морали, раскаяния или эмоций. Будущий ИИ мог бы различать «хорошие» и «плохие» действия, но четко человеческие чувства остаются именно такими - человеческими.

В статье «Роллинг Стоун» Муск далее рассказал об опасностях и проблемах, которые в настоящее время существуют с ИИ, одним из которых является потенциал для нескольких компаний по существу контролировать сектор ИИ. Он привел Google DeepMind в качестве яркого примера.

«Между Facebook, Google и Amazon - и, возможно, Apple, но они, похоже, заботятся о конфиденциальности - у них больше информации о вас, чем вы можете вспомнить», - сказал Муск. «В концентрации власти существует большой риск. Итак, если AGI [искусственный общий интеллект] представляет собой крайний уровень власти, должен ли он контролироваться несколькими людьми в Google без какого-либо надзора? »
Стоит риска?

Эксперты разделены по утверждению Муска, что мы, вероятно, не можем сделать AI безопасным. Основатель Facebook Марк Цукерберг сказал, что он оптимистично смотрит на будущее человечества с ИИ, назвав предупреждения Муска «очень безответственными». Тем временем Стивен Хокинг публично заявлял о своих убеждениях в том, что системы ИИ представляют собой достаточный риск для человечества, что они могут заменить нас вообще ,

Сергей Николенко, российский компьютерный ученый, специализирующийся на машинном обучении и сетевых алгоритмах, недавно поделился своими мыслями по этому вопросу с футуризмом. «Я чувствую, что нам по-прежнему не хватает необходимого базового понимания и методологии для достижения серьезных результатов по сильному ИИ, проблеме выравнивания ИИ и другим связанным с этим проблемам», - сказал Николенко.

Что касается сегодняшнего ИИ, он думает, что нам не о чем беспокоиться. «Я могу поспорить на любые деньги, которые современные нейронные сети не будут внезапно просыпаться и решают свергнуть их человеческий повелитель», - сказал Николенко.

Сам Муск может согласиться с этим, но его настроения скорее всего будут сосредоточены на том, как будущий ИИ может опираться на то, что мы имеем сегодня.

Уже есть системы ИИ, способные создавать системы ИИ, те, которые могут общаться на своих языках, и те, которые, естественно, любопытны. Хотя сингулярность и восстание роботов сегодня являются сугубо научно-фантастическими тропами, такой прогресс в искусстве заставляет их казаться подлинными возможностями для завтрашнего мира.

Но эти страхи не обязательно достаточны, чтобы перестать двигаться вперед. У нас также есть ИИ, которые могут диагностировать рак, выявлять суицидальное поведение и помогать прекратить сексуальную торговлю.

Эта технология имеет потенциал для спасения и улучшения жизни в глобальном масштабе, поэтому, хотя мы должны рассмотреть пути обеспечения безопасности ИИ в будущем регулировании, слова предупреждения Маска, в конечном счете, являются лишь мнением одного человека.

Он даже сказал так же самому Роллинг Стоун: «У меня нет всех ответов. Позвольте мне по-настоящему понять это. Я пытаюсь выяснить, какие действия я могу предпринять, которые, скорее всего, приведут к хорошему будущему. Если у вас есть предложения в этом отношении, пожалуйста, скажите мне, что они собой представляют.


Источник: futurism.com

Комментарии: