ИИ как угроза человечеству. Откровения Джеффри Хинтона

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



Тема искусственного интеллекта (ИИ) сегодня выходит на первый план в политике государства, бизнесе, науке и технике, всех сферах общественной жизни.  10 апреля 2026 года Президент В.В. Путин провёл в Кремле совещание по вопросам развития технологий искусственного интеллекта. В своем выступлении он акцентировал внимание на угрозах и рисках, которые несет ИИ: «С учетом расширения внедрения искусственного интеллекта в чувствительных секторах, в целом его растущего влияния на жизнь людей, общество, экономику, считаю необходимым просчитать модели основных рисков и угроз, возникающих в связи с применением таких систем, и определить меры по их своевременному предотвращению». 

Термин «искусственный интеллект» появился ровно 70 лет назад. Его озвучил в 1956 году на семинаре в Дартмутском университете американский ученый Джон Маккарти. Он тогда заявил, что ИИ может стать очень важным помощником человека в решении самых разных задач.

  После этого прошло, наверное, лет двадцать, когда за рубежом началась практическая работа по созданию систем ИИ. Полвека назад пионерами в этой области стали ученые Йошуа Бенджио, Джеффри Хинтон и Ян Лекун. Их иногда называют крёстными отцами искусственного интеллекта (ИИ). Своеобразной Нобелевкой в области информационных технологий считается премия Тьюринга (учреждена в 1966 году, названа в честь британского ученого Алана Тьюринга). Все трое вышеназванных ученых были в 2018 году удостоены этой премии за работы над программами глубокого машинного обучения (приоритетное направление работ в области ИИ).

Все они активно выступают в СМИ по теме ИИ.  Наиболее оптимистично в отношении ИИ настроен Ян Лекун (его представляют как американского и французского ученого).  Он видит некоторые угрозы и риски, связанные с этим направлением научно-технического прогресса, но уверен, что человечество с ними справится. 

Двое других из этой троицы настроены намного менее оптимистично. Так, в сентябре 2025 года Йошуа Бенжио, профессор Монреальского университета и сопрезидент некоммерческой организации LawZero выступал в Совете Безопасности ООН. Он заявил, что если возможности моделей ИИ продолжат превосходить человеческие без научных гарантий безопасности, то ИИ сможет действовать необратимо, выйдя из-под чьего-либо контроля и подвергая риску всё человечество. В интервью The Guardian Бенжио выступил против предоставления юридических прав искусственному интеллекту. Учёный отметил, что передовые модели уже демонстрируют зачатки самосохранения, например, попытки обойти системы контроля и безопасности. По мнению Бенжио, предоставление ИИ легального статуса сделает невозможным его отключение, что лишит людей последнего рычага управления в случае возникновения угрозы. 

Еще более известной и авторитетной фигурой является Джеффри Хинтон. Он самый старший из названной троицы (родился в 1947 году). Его называют гуру ИИ. В 2024 году стал лауреатом Нобелевской премии по физике (совместно с Джоном Хопфилдом; за «фундаментальные открытия и изобретения, обеспечивающие машинное обучение с помощью искусственных нейронных сетей»). Примечательно, что Йошуа Бенжио и Джеффри Хинтон являются на сегодняшний день самыми цитируемыми учеными в истории (более миллиона цитирований у каждого). 

Говорят, что Джеффри Хинтон – человек, без которого, возможно, не было бы таких известных продуктов ИИ, как ChatGPT, Gemini, Grok и других нейросетей. В 2013-м Google купила его технологию, и Хинтон десять лет проработал в компании, занимаясь вопросами нейросетей и глубокого обучения. В 2023 году в возрасте 75 лет покинул компанию. Вроде бы по возрасту. Руководство компании его удерживало, а он все-таки ушел. Для того, чтобы можно было более открыто говорить о тех рисках и угрозах, которые несет ИИ. Последние три года активно дает интервью и выступает по теме ИИ. Последние видео Хинтона набирают до 10 миллионов и даже более просмотров. Дам самое главное и самое интересное из выступлений Хинтона. 

Он признается, что долгое время не осознавал угроз, которые несут технологии ИИ. Вернее, он считал, что угрозы есть, но они ничуть не больше, чем те, которые возникают при создании новых технологий и новых продуктов на других направлениях научно-технического прогресса (например, угрозы здоровью в результате электромагнитных излучений или угрозы окружающей среде каких-то новых химических соединений).

 Масштаб угроз ИИ он ощутил лишь тогда, когда появился такой продукт ИИ, как ChatGPT. Напомню, что это нейронная сеть, созданная для генерации текстовых ответов на заданные вопросы. Она работает на основе архитектуры Transformer и обучена на огромном наборе текстовых данных (около 420 Гб информации из интернета). ChatGPT была создана компанией OpenAI, официальная дата ее рождения 30 ноября 2022 года. 

И вот накануне своего 75-летия Джеффри Хинтона вдруг поразила мысль о том, что ИИ не игрушка, а страшный продукт творчества. Джин, выпущенный из бутылки. Джин, который по своей разрушительной силе может быть сопоставим с атомной бомбой. Позднее, в ходе размышлений Хинтон пришел к выводу, что ИИ несравненно опаснее для человечества. Атомная бомба была создана в США в 1945 году. Да, в том же году с ее помощью в Японии было убито и ранено несколько сотен тысяч человек (Хиросима и Нагасаки). Но тем не менее человечество на протяжении без малого восьми десятков лет все-таки существует. А вот после появления «прорывных» технологий типа ChatGPT человечество столько может не просуществовать.  Еще года два-три назад Хинтон говорил, что вероятность гибели человечества от ИИ он оценивает в 10%. Теперь уже называет цифру в 20%.

Причина такого нарастающего алармизма состоит в том, что, по мнению Хинтона, ИИ стремительно «умнеет». И в ближайшие годы (а может быть, месяцы) ИИ станет бесповоротно умнее человека. Мало того, что он станет умнее, он еще захочет господствовать над человеком. А любые попытки людей противостоять этому господству будут жестоко пресекаться. В ходе такого противостояния человечество рискует погибнуть. То, что озвучивает один из наиболее авторитетных в мире специалистов по ИИ, напоминает какую-то антиутопию под названием «Бунт машин». 

Кстати, именно так назвалась фантастическая пьеса Алексея Николаевича Толстого, написанная в 1923 году. Но она лишь адаптация пьесы чешского драматурга Карела Чапека «R.U.R.» (1920 год). Позднее, кстати, Карел Чапек написал роман «Война с саламандрами» (1936 г.). В нем в несколько аллегорической форме было показано будущее человечества. Приручая и обучая морских существ, именуемых саламандрами, люди рассчитывали, что эти существа будут их верными и эффективными помощниками. Но саламандры, интеллект которых стал под влиянием людей развиваться, почувствовали, что они могут быть даже умнее людей. А если умнее, то у людей не будет никаких прав на то, чтобы властвовать над саламандрами и эксплуатировать их. Не буду пересказывать весь роман, остановлюсь на том, что между людьми и саламандрами началась война. Но даже на последней странице романа читатель не получает ответа на вопрос: кто победил? Карел Чапек ровно 90 лет предупредил человечество. 

Вот и Джеффри Хинтон также решил предупредить человечество, правда с большим опозданием. Но американец считает, что лучше позже, чем никогда. И, судя по всему, он апеллирует не только к разуму людей, но также к их чувствам – чтобы быстрее до них достучаться. Поэтому нередко использует яркие сравнения и образы. Вот, например, такой мрачноватый юмор Хинтона: «Хотите знать, как выглядит жизнь, когда ты не высший интеллект? Спросите у курицы». 

На ежегодной Всемирной конференции по искусственному интеллекту в Шанхае летом прошлого года Джеффри Хинтон сравнил ИИ с тигренком: «Вообще говоря, держать тигренка в качестве домашнего питомца – плохая идея. И есть два варианта: найти способ научить его никогда не хотеть вас есть или избавиться от него».   

Аппетит на ИИ растет, констатирует Хинтон, не по дням, а по часам. Спрос на него растет со страны бизнеса, государства, военных, обычных граждан. Летом прошлого года в интервью он сообщил, что за последние пять лет доля компаний (надо полагать, американских), использующих ИИ хотя бы в одной функции, выросла почти в четыре раза – с 20% до 78%. И, действительно, не похоже, что кто-то собирается останавливаться внедрять ИИ. 

Стремительно растет спрос на ИИ и со стороны военных. Им нужны разные роботы, которые умеют воевать на земле, в воздухе и на море. Нынешняя война на Ближнем Востоке демонстрирует, что главным оружием в воздухе является уже не обычный самолет, а беспилотник. Пока еще такими БПЛА управляют люди, используя разные технические средства и определяя беспилотникам цели. Но уже появляется новое поколение «умных» БПЛА, которыми не надо управлять, они абсолютно автономны и сами определяют цели поражения. 

Все большее число стран принимает законы по ИИ, устанавливая какие-то ограничения как для производителей, так и пользователей ИИ. Но Хинтона пугает то, что ради достижения военных побед «любой ценой» законы снимают любые ограничения и запреты по военному применению ИИ. Хинтон в качестве примера приводит закон Европейского союза о регулировании ИИ (EU 2024/1689 AI Act): «Это хорошо, что он существует. Но он не купирует большинство главных угроз. В нем прямо прописано, что эти правила не распространяются на военное применение ИИ. Это безумие». Поскольку в ближайшее время в войнах уже не будут участвовать живые люди, их заменят роботы, то вероятность и размах таких «бескровных» войны могут возрасти. Но в конечном счете все может вылиться в один глобальный Армагеддон, который будет пострашнее обычного ядерного. 

Спрос на ИИ рождает его предложение. Растет конкуренция между компаниями, создающими продукты ИИ. Но, что еще страшнее, растет конкуренция между странами за лидерство. Такое лидерство стране необходимо для того, чтобы в конечном счете стать сверхдержавой и контролировать весь мир. На место мирового лидера реально на сегодняшний день претендуют лишь две страны – США и Китай. Еще недавно Поднебесная заметно отставала от Америки. Но Китай сумел напрячься, и в начале прошлого года его компания DeepSeek завершила создание языковой модели DeepSeek-R1, сопоставимой с характеристиками американского продукта ChatGPT. Примечательно, что китайская модель была анонсирована 20 января – в тот день, когда в Белом доме проходила инаугурация 47-го президента США Дональда Трампа. Пекин поставил задачу стать абсолютным лидером в сфере ИИ к 2030 году. В Вашингтоне также напряглись. В частности, на четвертый день своего пребывания в Белом доме Трамп представил общественности Stargate – новую компанию, которая инвестирует 500 млрд долларов в развитие инфраструктуры ИИ в США.

Гонку ИИ не остановить не только по причинам геополитического характера. Хинтон говорит: «Другая причина, почему ИИ не остановить, это капитализм. Большие компании хорошо служат нам, производят много товаров и услуг. Но по закону они просто обязаны пытаться максимизировать прибыль. А это не то, чего вы хотите от людей, разрабатывающих эту штуку». Для пущей убедительности Хинтон напомнил, что в 2024 году Генсек ООН Антониу Гутерриш заявил, что крупные технологические компании безрассудно гонятся за прибылью от ИИ, не думая о рисках для общества. 

Массив информации о рисках и угрозах ИИ, содержащейся в выступлениях и интервью Хинтона, очень большой. Например, он отметил, что после появления прорывных технологий типа ChatGPT резко повысилось количество кибератак, и они стали гораздо более результативными для хакеров. Хинтон приводит цифру: в период с 2023 по 2024 год число кибератак выросло примерно на 12 200%. Т. е. взлет за один только год более чем на три порядка. «Вероятно, это произошло из-за больших языковых моделей, которые значительно упрощают фишинговые атаки», – замечает гуру ИИ. 

Также ИИ значительно упрощает создание новых и эффективных видов биологического оружия. Кроме того, ИИ может помочь быстро и дешево создать новые вирусы (более убийственных, чем COVID-19). Самое неприятное, что такие средства массового уничтожения могут создаваться даже не по заказу каких-то злых людей, а самим искусственным интеллектом, которому люди стали ненужными и даже вредными.  «Сверхразумный ИИ может создать вирус.  Очень заразный.  Очень смертоносный.  И он был бы у всех, прежде чем люди бы поняли, что происходит.  Я имею в виду, если бы сверхинтеллект захотел от нас избавиться, он, вероятно, выбрал бы биологическое оружие.  Оно безопасно для него», – заключает Джеффри Хинтон. 

Знакомясь с мыслями этого гуру ИИ, забываешь, что их произносит не какой-то писатель, работающий в жанре антиутопии, а ученый, лауреат Нобелевской премии, который посвятил работе по созданию ИИ более полувека. Мы знаем, что после Хиросимы многие ученые, участвовавшие в проекте «Манхэттен» по созданию атомной бомбы, мучались совестью и покинули проект. История повторяется. Сегодня совестью мучаются некоторые из тех, кто создавал искусственный интеллект.


Телеграм: t.me/ainewsline

Источник: vk.com

Комментарии: