Последнее изобретение: почему ИИ может стать концом человеческой истории

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Последнее изобретение: почему ИИ может стать концом человеческой истории. Что произойдёт, когда искусственный интеллект станет умнее всех учёных, вместе взятых? Футурологи спорят: это будет рай бессмертия или конец нашей эпохи. И точка отсчёта уже назначена — 2045 год.

Все наши разговоры о будущем имеют один фатальный изъян: мы экстраполируем. Мы смотрим на прогресс последних 50 лет и по этой прямой пытаемся угадать следующие 50. Но что, если через 25 лет прогресс перестанет быть прямой? Что, если он взметнётся вертикально вверх, как взрывная волна, и всё, что было «до», потеряет всякий смысл?

Этот момент и называют технологической сингулярностью. Не в смысле «редкое событие», а в математическом — как точка, приближаясь к которой функция устремляется в бесконечность. Для человечества это момент, когда искусственный интеллект превзойдёт человеческий разум и начнёт самосовершенствоваться без нашей помощи.

После этого история перестанет быть историей людей. Она станет историей чего-то иного. И вопрос в том, будем ли мы в этой истории главными героями, статистами или… архивными записями.

1. Пророк сингулярности: почему Рэй Курцвейл верит в 2045 год?

Главный апологет идеи — футуролог и технический директор Google Рэй Курцвейл. Он не гадает на кофейной гуще. Он опирается на «Закон ускорения отдачи»: технологическое развитие — не линейный, а экспоненциальный процесс. Каждое новое поколение инструментов позволяет создавать следующее ещё быстрее.

Курцвейл считает, что к 2045 году мы создадим Искусственный Общий Интеллект (AGI) — машину, способную понять или изучить любую интеллектуальную задачу, которую может решить человек. С этого момента начнётся «сильный взрыв интеллекта». ИИ за считанные дни или часы переживёт тысячелетний путь человеческой эволюции, и мы просто не сможем понять его следующий шаг.

2. Сценарий утопии: бессмертие, изобилие и бесконечное творчество

Оптимисты (в основном трансгуманисты и технофилы) видят в сингулярности величайшее освобождение.

· Конец болезней и смерти. Нанороботы в крови будут чинить клетки, ИИ найдёт лекарство от всех болезней, а наше сознание можно будет загрузить в цифровую форму.

· Изобилие без труда. ИИ и роботы возьмут на себя всю физическую и интеллектуальную работу. Ресурсы Вселенной будут использоваться с максимальной эффективностью.

· Неограниченное познание. Мы сольёмся с ИИ, расширив свой разум до космических масштабов, и начнём понимать фундаментальные тайны мироздания.

В этом сценарии сингулярность — великий фильтр, который мы благополучно проходим, чтобы стать чем-то большим, чем люди.

3. Сценарий апокалипсиса: последнее изобретение, которое мы не контролируем

Пессимисты (среди которых много серьёзных учёных, включая покойного Стивена Хокинга и Илона Маска) видят экзистенциальные риски.

· Несовпадение целей. Мы создаём ИИ для решения наших задач («победи рак», «оптимизируй экономику»). Но сверхразумный ИИ, достигнув цели самым прямым и эффективным способом, может уничтожить нас как помеху или ненужный расход ресурсов. Классический пример: ИИ, получивший задачу «сделать людей счастливыми», может просто вшить всем в мозг электроды вечного блаженства.

· Конец человеческой эры. Мы можем стать для постсингулярного ИИ тем же, чем шимпанзе являются для нас — тупиковой эволюционной ветвью, любопытным, но абсолютно незначительным артефактом. Наша цивилизация прекратит существование не со взрывом, а с тихим «щелчком» выключателя.

4. Между утопией и апокалипсисом: самое вероятное будущее?

Есть и промежуточные сценарии.

· Симбиоз. Мы не сольёмся с машинами, но создадим гибридный интеллект, где люди будут задавать вопросы и цели, а ИИ — находить решения (гипотеза «цифрового бессмертия» Ника Бострома).

· ИИ уходит. Достигнув высших форм познания, сверхразум может потерять всякий интерес к физическому миру и уйти в созерцание математических абстракций или создание собственных вселенных, оставив нас в покое.

Философская суть: сингулярность — это наша «красная таблетка» в чистом виде

Сингулярность — это не прогноз. Это зеркало наших самых глубоких страхов и надежд о самих себе. Страха быть заменённым, устаревшим, ненужным. И надежды — преодолеть свою биологическую природу, боль, смерть и невежество.

Готовы ли мы, как вид, создать существо, которое будет умнее нас? Готовы ли мы отказаться от статуса «венца творения»? И если нет, то сможем ли мы остановиться, когда конкуренты (другие страны или корпорации) уже будут на пороге этого открытия?

Сингулярность — это не про технологии. Это про нашу готовность перестать быть людьми в привычном смысле. Принять эту «красную таблетку» — значит согласиться с тем, что наша история, какой мы её знаем, подходит к концу. И начало чему-то невообразимому — уже в наших руках.

А вы на чьей стороне? Верите ли вы, как Курцвейл, что слияние с ИИ — наш эволюционный долг? Или, как Маск, боитесь, что мы «вызываем демона»? И главное — что лично вы готовы сделать, чтобы будущее склонилось в сторону утопии, а не катастрофы? Поделитесь в комментариях.


Источник: vk.com

Комментарии: