ИИ-утопия, ИИ-апокалипсис и ИИ-реальность

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В недавних статьях и книгах об искусственном интеллекте (ИИ) представлены образы будущего, которые выстраиваются, как железные опилки вокруг двух магнитных полюсов — утопии и апокалипсиса.

С одной стороны, говорят, что ИИ ведёт нас к идеальному будущему, полному комфорта, здоровья и расширенного понимания. Мы, с помощью наших машин и их больших языковых моделей (LLM), будем знать практически всё и делать правильный выбор, чтобы вступить в эпоху постоянного просвещения и изобилия.

С другой стороны, ИИ может привести нас в будущее, полное безработицы, разрушения окружающей среды и заблуждений. Наши машины будут поглощать скудные ресурсы, распространяя дезинформацию и создавая смертоносное оружие, которое агенты ИИ будут использовать, чтобы уничтожить нас, когда мы перестанем быть для них полезными.

Утопия и апокалипсис издавна оказывали мощное влияние на человеческое воображение и поведение. (Моя первая книга, опубликованная в 1989 году и дополненная в 1995-м, называлась «Воспоминания и видения рая: исследование универсального мифа о потерянном золотом веке»; в ней рассматривалась история и значение утопического архетипа.)

Новые технологии, как правило, активизируют эти два полярных аттрактора в нашей коллективной психике, потому что изготовление орудий труда и язык — это две суперспособности человечества, которые позволили нашему виду захватить мир, но в то же время привели нас к экзистенциальной опасности.

Новые технологии усиливают власть одних людей над природой и другими людьми, принося пользу, которая, если мысленно экстраполировать её в будущее, порождает ожидания грандиозного будущего. Но новые технологии также влекут за собой издержки (истощение ресурсов, загрязнение окружающей среды, усиление экономического неравенства, несчастные случаи и злоупотребления), которые вызывают опасения по поводу окончательного расплаты.

Язык усиливает наш талант в создании инструментов, позволяя нам учиться у других; он также является средством формулирования и выражения наших надежд и страхов. ИИ, поскольку он является одновременно технологическим и лингвистическим, а также поскольку он внедряется в бешеном темпе и так стремительно, особенно склонен вызывать рефлекс «утопия/апокалипсис».

Мы, люди, неоднозначно относимся к технологиям, по крайней мере, с тех пор, как научились писать. Инструменты позволяют нам красть огонь у богов, как мифическому Прометею, которого боги наказали вечными муками; они — крылья Икара, который подлетел слишком близко к солнцу и разбился насмерть. ИИ обещает сделать технологии автономно разумными, что напоминает ещё одну поучительную историю — «Ученик чародея».

Что может пойти не так — или пойти так? После краткого обзора утопических и апокалиптических представлений об ИИ я рассмотрю два вопроса: во-первых, как эти крайние точки зрения помогают или мешают нам в наших попытках понять ИИ? И во-вторых, кому служат эти представления? Как мы увидим, есть некоторые ранние намёки на конечные пределы возможностей ИИ, которые указывают на будущее, не совпадающее со многими самыми большими надеждами или самыми глубокими страхами, связанными с новой технологией.

Утопия искусственного Интеллекта

Как писатель, я обычно не использую ИИ намеренно. Тем не менее, работая над этой статьёй, я не смог удержаться и задал бесплатный вопрос ИИ от Google: «Каково утопическое видение ИИ?» Ответ пришёл через долю секунды:

«Утопическое видение ИИ предполагает будущее, в котором ИИ органично интегрируется в жизнь человека, повышая производительность, инновационность и общее благополучие. Это мир, в котором ИИ решает сложные проблемы, такие как изменение климата и болезни, и помогает человечеству достичь новых высот».

Первое предложение в ответе Google нуждается в редактировании, чтобы убрать словесную избыточность (vision, envisions), но ИИ действительно удалось составить полезное резюме о мечтах своих разработчиков.

То же самое в более развёрнутой форме изложено в статье «Видения утопии ИИ» Future Sight Echo, в которой сообщается, что ИИ смягчит последствия экономического неравенства, предоставляя ресурсы более эффективно и «динамично, с возможностью мгновенной адаптации к новой информации и обстоятельствам». Повышение эффективности также снизит воздействие человечества на окружающую среду за счёт минимизации энергопотребления и всевозможных отходов.

Но это только начало. Образование, творчество, здоровье и долголетие, перевод и понимание культурных особенностей, общение и забота, управление и юридическое представительство — всё это претерпит революционные изменения благодаря ИИ.

Существует множество доказательств того, что люди с деньгами разделяют эти надежды на ИИ. Самые популярные акции на Уолл-стрит (в частности, Nvidia) связаны с ИИ, как и многие корпорации, которые вносят значительный вклад в работу радиостанции NPR, которую я слушаю в Северной Калифорнии, тем самым получая право на рекламу в начале часа.

Капиталовложения в ИИ растут так стремительно (примерно 300 миллиардов долларов только в этом году в одних только США), что, если заявленный потенциал хотя бы наполовину реален, мы все можем быть уверены, что большинство человеческих проблем вскоре исчезнут.

Или они это сделают?

Апокалипсис Искусственного Интеллекта

Как ни странно, когда я впервые спросил ИИ Google: «Каково ваше видение ИИ-апокалипсиса?», он ответил: «Обзор ИИ недоступен для этого запроса». Возможно, я неправильно сформулировал свой вопрос. Или, может быть, ИИ почувствовал мою враждебность. Раскрытие информации: я публично призывал к немедленному запрету ИИ.

(Позже «ИИ» стал более сговорчивым и предложил подробное описание «общих тем в видении апокалипсиса ИИ».) Я предлагаю запретить ИИ, потому что он даёт нам, людям, больше власти через язык и технологии, чем у нас уже есть, и что в совокупности у нас уже слишком много власти по отношению к остальной природе.

Мы разрушаем экосистемы, добывая ресурсы и выбрасывая отходы, до такой степени, что, если нынешние тенденции сохранятся, дикая природа может исчезнуть к концу века.

Кроме того, самые могущественные люди всё больше превосходят всех остальных как в экономическом, так и в военном плане. Более разумное использование нашей власти, вероятно, не поможет, потому что мы уже слишком умны для нашего же блага. Последнее, что нам следует делать, — это отделять язык от биологии, чтобы он мог существовать исключительно в смоделированной техно-вселенной.

Давайте будем конкретны. Что именно может пойти не так из-за ИИ? Для начала, ИИ может ухудшить и без того плохие вещи — как в природе, так и в обществе.

Существует множество способов, которыми человечество уже дестабилизирует планетарные экологические системы; чаще всего обсуждается изменение климата. Благодаря своему огромному спросу на энергию ИИ может ускорить изменение климата, генерируя больше выбросов углерода.

По данным Международного энергетического агентства, «под воздействием использования ИИ экономика США в 2030 году будет потреблять больше электроэнергии для обработки данных, чем для производства всех энергоемких товаров вместе взятых, включая алюминий, сталь, цемент и химикаты».

Мир также сталкивается с усугубляющейся нехваткой воды; ИИ нужно огромное ее количество. Природа уже содрогается от ускоряющихся темпов добычи и истощения ресурсов человечеством. ИИ требуются миллионы тонн меди, стали, цемента и другого сырья, и поставщики нацеливаются на земли коренных народов для новых шахт.

У нас уже сейчас достаточно социальных проблем, главной из которых является растущее экономическое неравенство. ИИ может увеличить разрыв между богатыми и бедными, заменив низкоквалифицированных работников машинами и значительно увеличив благосостояние тех, кто контролирует технологии.

Многие люди обеспокоены тем, что корпорации получили слишком большое политическое влияние; ИИ может ускорить эту тенденцию, сделав сбор и обработку огромных объёмов данных буквально обо всех дешевле и проще, а также способствуя консолидации монополий.

Безработица всегда была проблемой в капиталистических обществах, но ИИ грозит быстро лишить работы миллионы «белых воротничков»: генеральный директор Anthropic Дарио Амодей прогнозирует, что ИИ может уничтожить половину «белых воротничков» начального уровня в течение пяти лет, в то время как Билл Гейтс прогнозирует, что только три сферы деятельности переживут ИИ— энергетика, биология и программирование систем ИИ.

Однако самые ужасающие прогнозы в отношении ИИ выходят за рамки простого усугубления плохих ситуаций. В недавнем выпуске The Bulwark Podcast под названием «Убьет ли Сэм Альтман и его ИИ всех нас?» прямо говорится о наихудшем сценарии.

Но как именно ИИ может убить нас всех? Один из способов — автоматизировать принятие военных решений, делая оружие дешевле и смертоноснее (недавний комментарий Брукингского института назывался «Как бесконтрольный ИИ может спровоцировать ядерную войну»).

Некоторые философы, склонные к антиутопической научной фантастике, считают, что технология, став значительно умнее людей, может начать воспринимать биологических людей как бессмысленную трату ресурсов, которые машины могли бы использовать более эффективно. В этот момент ИИ может пойти по нескольким путям, чтобы уничтожить человечество.

Реальность искусственного Интеллекта

Я не знаю подробностей того, как ИИ будет развиваться в ближайшие месяцы и годы. Но то же самое можно сказать и о лидерах индустрии ИИ. Они, безусловно, понимают эту технологию лучше, чем я, но их прогнозы по ИИ могут не учитывать важный фактор.

Видите ли, я годами приучал себя искать ограничения в ресурсах, энергии, материалах и социальных системах. Большинство людей, работающих в сфере финансов и технологий, склонны игнорировать ограничения или даже верить, что их нет.

Это приводит их к абсурдным выводам, таким как ожидание Илоном Маском колонизации Марса. Земля конечна, люди будут ограничены в передвижении по этой планете навсегда, и поэтому многие вещи, которые мы можем себе представить, просто не произойдут. Я бы сказал, что в дискуссиях о перспективах и опасностях ИИ не хватает осознания ограничений.

Арвинд Нараянан и Саяш Капур в эссе под названием «ИИ — это обычная технология» отчасти разделяют это мнение. Они утверждают, что развитие ИИ будет ограничено скоростью организационных и институциональных изменений в обществе, а также «жёсткими ограничениями скорости получения знаний из-за социальных издержек, связанных с экспериментами».

Однако авторы не считают, что из-за этих ограничений ИИ окажет лишь незначительное влияние на общество; они видят в нём усилитель системных рисков.

Помимо социальных ограничений, о которых говорят Нараянан и Капур, будут также (как упоминалось выше) экологические ограничения, связанные с энергией, водой и материалами, необходимыми для ИИ. Эта тема обсуждалась на недавней конференции.

Наконец, существует важнейшее ограничение для развития ИИ, заложенное в самой технологии. Большим языковым моделям требуется огромное количество высококачественных данных. Однако по мере того, как всё больше специалистов по работе с информацией заменяются ИИ или начинают использовать ИИ для создания контента (обе тенденции ускоряются), всё больше данных, доступных ИИ, будут генерироваться ИИ, а не опытными исследователями, которые постоянно сверяют их с реальным миром.

Это означает, что ИИ может попасть в ловушку цикла снижения качества информации. Технические специалисты называют это «крахом моделей ИИ», и не существует реалистичного плана, как это остановить. ИИ сам себе не может помочь.

В своей статье «Некоторые признаки краха модели ИИ начинают проявляться» Стивен Дж. Воган-Николс утверждает, что это уже происходит. Широко известны случаи, когда ИИ непреднамеренно создавал фальшивые научные документы. Недавно Chicago Sun-Times опубликовала статью «Лучшее за лето», в которой были упомянуты не существующие в природе романы.

А широко разрекламированный доклад администрации Трампа «Сделаем Америку снова здоровой» включал в себя ссылки (очевидно, сгенерированные ИИ) на несуществующие исследования. Большинство из нас привыкли к тому, что в новых технологиях будут возникать ошибки, которые инженеры постепенно устранят или обойдут, что приведёт к повышению производительности. С ИИ ошибки и проблемы с галлюцинациями могут только усугубиться.

Точно так же, как существуют пределы для утопии, основанной на ископаемом топливе, ядерной утопии и утопии капитализма с бесконечным ростом, существуют пределы и для утопии, основанной на искусственном интеллекте. Точно так же пределы могут помешать ИИ стать всемогущим жнецом смерти.

Каким будет настоящее будущее ИИ? Вот общий прогноз (подробности в настоящее время недоступны из-за того, что я не смог обновить операционную систему своего хрустального шара). В течение следующих нескольких лет корпорации и правительства будут продолжать активно инвестировать в ИИ, руководствуясь его способностью сокращать затраты на рабочую силу.

Мы станем системно зависимы от этой технологии. ИИ изменит общество — занятость, повседневную жизнь, производство знаний, образование и распределение богатства. Затем, ускоряясь по мере развития, ИИ превратится в галлюцинирующую, визгливую какофонию маленьких голосов, изрыгающих бессмыслицу.

В результате пострадают реальные компании, учреждения и домохозяйства. Затем мы либо научимся жить без ИИ, либо ограничим его относительно узким кругом задач и наборов данных. Америка недавно получила небольшое представление об этом будущем, когда DOGE под руководством Маска уволила десятки тысяч федеральных служащих, рассчитывая заменить многих из них искусственным интеллектом — не зная, сможет ли ИИ выполнять их работу (упс: тысячи сотрудников вернулись на работу).

Беспорядочное будущее, в котором нет ни того, ни другого, — это не то, чего вы ожидаете, если тратите время на чтение таких документов, как «ИИ 2027» — подробное умозрительное повествование пяти инсайдеров отрасли о неизбежном будущем ИИ, которое позволяет читателям выбрать концовку истории.

Вариант А, «замедление», ведёт к будущему, в котором ИИ будет всего лишь послушным, сверхкомпетентным помощником; в то


Источник: www.resilience.org

Комментарии: