Всадник апокалипсиса Юваль Ной Харари в интервью сравнил развитие искусственного интеллекта с приходом пришельцев

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Всадник апокалипсиса Юваль Ной Харари в интервью сравнил развитие искусственного интеллекта с приходом пришельцев. Это главный идеолог глобализма, который запустил разрушение нашего мира:

«Это конец человеческой истории, не конец истории, а конец истории, в которой доминировал человек. История продолжится с кем-то другим, кто будет контролировать её. Если бы речь шла о человечестве против общей угрозы этих новых разумных инопланетных агентов на Земле, тогда да, я думаю, что были бы способы сдержать их. Но сами люди разделены между собой и находятся в гонке вооружений, поэтому сдерживание этого инопланетного интеллекта становится почти невозможным.

И я склонен думать об этом (развитии ИИ) больше в терминах инопланетного вторжения, как будто кто-то приходит и говорит нам, что, знаете, есть флот, флот инопланетных космических кораблей, прибывающих с планеты Зерокон или чего-то ещё с высокоразумными существами. Они будут здесь через пять лет и захватят планету; может быть, они будут хорошими, может быть, решат проблему рака и изменения климата, но мы не уверены, что это то, с чем мы столкнулись.

За исключением того, что пришельцы прилетят не на космических кораблях с планеты Зерокон, а из лаборатории, мы можем попытаться предотвратить их появление, но знаем, что они будут обладать высоким интеллектом и, по крайней мере, потенциально обладать силой. И это очень пугающая смесь, с которой мы никогда не сталкивались раньше.

Атомные бомбы не имели разума, печатный процесс тоже не имел разума. Если мы не сдержим её (ИИ), а проблема сдерживания (ИИ) очень трудна, потому что потенциально они (ИИ) будут более интеллектуальны, чем мы. Как вы предотвратите что-то более интеллектуальное, чем вы, от развития его разума и силы, которая у него есть? Я не говорю, что это невозможно, я просто говорю, что это очень и очень трудно»

Роман Голованов


Источник: vk.com

Комментарии: