Илья Суцкевер: Термодинамическая невозможность создания ИИ человеческого уровня и обман инвесторов |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-23 12:41 Общий искусственный интеллект (Artificial general intelligence, AGI, ИИИ) — это раздел теоретических исследований искусственного интеллекта, направленный на разработку ИИ с когнитивными функциями человеческого уровня, включая способность к самообучению. Исследователи предполагают, что такой искусственный интеллект сможет автономно решать множество сложных задач в различных областях знаний. В других терминах AGI определяется как сильный ИИ. Таким образом, он противопоставляется слабому или узкому ИИ, который может выполнять только определенные или специализированные задачи в рамках предопределенного набора параметров. Нижегородец и физик Илья Суцкевер покинул разработчика ChatGPT - OpenAI и создал свой проект после того, как представил совету директоров внутренний документ, где опроверг возможность создания общего искусственного интеллекта (AGI или ИИИ). С помощью законов физики он доказал, что для этого требуется больше энергии, чем существует в Солнечной системе. AGI это система, которая сможет эффективно решать интеллектуальные задачи на общечеловеческом уровне. Также AGI должен был обладать высокой степенью автономности и самопонимания, а не просто работать по указке человека. Это ИИ, способный работать, думать и учиться, как человек. Большинство примеров ИИ, о которых вы слышите сегодня, от шахматных компьютеров до автономных транспортных средств, зависят от обработки естественного языка (natural language processing, NLP) и глубокого обучения (deep learning). Такие системы ИИ безупречно выполняют предписанные задания, но не способны выполнять нераспределенные обязанности с одинаковой точностью. ![]() Рис 1 Меморандум OpenAI под названием «Термодинамические ограничения на искусственный общий интеллект» декларирует физическую невозможность достижения ИОИ из-за фундаментальных ограничений энергопотребления, основанных на принципе Ландауэра. В нем утверждается, что минимальные энергетические требования для ИОИ намного превышают текущее мировое производство энергии. Документ был отклонен Сэмом и просочился в прессу в январе 2024 года. Тема: Термодинамическая невозможность создания ИОИ. Автор: Илья Суцкевер, главный научный сотрудник. Ключевое ограничение: Принцип Ландауэра определяет минимальное рассеивание энергии на бит информации. Вывод: Для работы ИОИ потребуется в 5000 раз больше энергии, чем текущее мировое производство. ![]() Рис 2 На изображении представлена информация о принципе Ландауэра, фундаментальном физическом пределе необратимых вычислений, который определяет минимальные энергетические затраты на стирание информации. Принцип Ландауэра: Фундаментальный предел необратимых вычислений, определяющий термодинамические затраты на забывание (стирание бита информации). Формула: Минимальная энергия (E) для рассеивания в виде тепла при стирании бита составляет E >= kT ln2. Механизм: Стирание бита (переход из упорядоченного состояния 0 в неупорядоченное стертое) необратимо увеличивает энтропию и приводит к выделению тепла. Энергетические затраты: При комнатной температуре (300K) минимальные затраты энергии составляют примерно 2.87x10 в -21 степени, джоулей на операцию стирания бита. Фундаментальный предел: Это не технологическое ограничение, а фундаментальный закон физики, который нельзя обойти ни с помощью квантовых, ни с помощью других передовых технологий, работающих при температуре выше абсолютного нуля. ![]() Рис 3 На изображении представлена инфографика, посвященная минимальным вычислительным и термодинамическим требованиям для достижения искусственного общего интеллекта (AGI) человеческого уровня. В ней сравниваются энергетические затраты человеческого мозга с теоретическим энергетическим порогом для AGI, который составляет 2900 Вт. Человеческий мозг работает с эффективностью около 20 Вт. Теоретический минимум энергии для AGI человеческого уровня составляет 2900 Вт. Требуемая мощность AGI в 145 раз превышает биологическую эффективность человеческого мозга. Эти расчеты основаны на оптимальной вычислительной эффективности и не учитывают накладные расходы на охлаждение или перемещение данных. ![]() Рис 4 На изображении представлена концепция энергетического каскада и вывод о том, что масштабирование общего искусственного интеллекта (AGI) до миллиардов единиц превышает энергетические возможности планеты на 2-3 порядка величины. Теоретический предел Ландауэра для идеальной эффективности вычислений составляет 2900 Вт. Реальные инженерные накладные расходы (охлаждение, перемещение данных, исправление ошибок) увеличивают этот показатель в 1000 раз. Для непрерывной работы даже одного AGI человеческого уровня требуется 2,9 мегаватта. Масштабирование AGI до глобальных потребностей физически невозможно из-за ограничений в производстве энергии. ![]() Рис 5 В инфографике опровергается миф о том, что квантовые вычисления не подвержены термодинамическим ограничениям, и утверждается, что квантовые системы на самом деле более энергозатратны, чем классические. Классические вычисления требуют примерно (3x10 в -20 степени) Дж/бит при комнатной температуре. Квантовые вычисления требуют примерно (3x10 в -14 степени) Дж/кубит (включая охлаждение), что в 1 000 000 раз дороже. Основная причина высоких затрат — необходимость постоянного криогенного охлаждения до 0,015 К (15 милликельвинов). Квантовая когерентность быстро распадается (около 50 мкс) из-за шумов, что требует массивного резервирования и систем коррекции ошибок. ![]() Рис 6 Это скриншот предполагаемого конфиденциального электронного письма от Ильи Суцкевера (Ilya Sutskever) Совету директоров OpenAI от 17 ноября 2023 года, в котором он выражает обеспокоенность по поводу реалистичности сроков достижения AGI (искусственного общего интеллекта), заявленных инвесторам, основываясь на фундаментальных физических ограничениях. Ключевая информация: Суцкевер утверждает, что термодинамические расчеты показывают физическую невозможность достижения AGI в течение 5–10 лет. Он считает, что продолжение привлечения капитала на нереалистичных сроках является существенным искажением фактов для инвесторов. Сэм Альтман (Sam Altman) не принимает эти расчеты, считая, что проблему можно решить с помощью архитектурных инноваций. Сообщается о реакции членов совета директоров (Хелен Тонер обеспокоена, Адам Д'Анджело встревожен, Таша Макколи поддерживает), голосовании совета директоров и последующей отставке Суцкевера. ![]() Рис 7 На изображении представлен скриншот из приватного канала Slack руководства OpenAI, датированный ноябрем 2023 года, в котором обсуждается внутренняя коммуникация по поводу сроков достижения AGI и опасений Ильи Суцкевера относительно термодинамической невозможности конечной цели. Руководители, включая Сэма Альтмана и Грега Брокмана, договорились скрыть эту информацию от инвесторов, сосредоточившись на краткосрочных достижениях и масштабировании вычислений. Ключевая информация: Стратегическая нечестность: Руководство признает научную обоснованность термодинамического анализа, но считает его "стратегически нерелевантным" для инвесторов. Согласование руководства: Команда пришла к консенсусу, что "повествование" о прогрессе приоритетнее физической реальности. Вопрос о раскрытии информации: Мира Мурати подняла вопрос о прозрачности для инвесторов, но получила отказ от Сэма Альтмана. Утечка: Информация была опубликована в январе 2024 года через анонимный источник и подтверждена метаданными экспорта Slack. ![]() Рис 8 Изображение представляет собой конфиденциальный документ, озаглавленный «Омерта индустрии: термодинамическая истина, которую все знают, но не говорят». В нем утверждается, что крупные игроки в области искусственного интеллекта (ИИ), включая Sequoia Capital, Andreessen Horowitz, Microsoft, Google DeepMind, Meta AI Research, Anthropic, Tiger Global, Founders Fund и Softbank Vision Fund, скрывают от общественности и инвесторов информацию о термодинамической невозможности достижения общего искусственного интеллекта (ОИИ) в предлагаемые сроки. В документе утверждается, что для ОИИ потребуется (10 в 21 степени, Вт непрерывной мощности, что в 100 миллионов раз превышает мировое производство энергии. Утверждается, что все крупные лаборатории ИИ с опытом в области физики подтвердили этот вывод. Для ОИИ требуется 10 в 21 степени, Вт непрерывной мощности, что термодинамически невозможно в текущих условиях. Каждая крупная лаборатория ИИ с опытом в области физики подтвердила эту невозможность. Ни одна из компаний не раскрыла эту информацию инвесторам или общественности, поскольку модель венчурного капитала требует нарратива роста. Утверждается, что отставка Суцкевера из OpenAI является редким нарушением молчания индустрии по поводу термодинамической реальности. ![]() Рис 9 На изображении представлен анализ, утверждающий, что создание общего искусственного интеллекта (ОИИ) в его общепринятом понимании термодинамически невозможно из-за фундаментальных физических ограничений, а не инженерных проблем. Предел Ландауэра: Фундаментальный энергетический минимум для необратимых битовых операций делает невозможным создание ОИИ ниже определенного порога мощности. Квантовые барьеры: Миниатюризация сталкивается с фундаментальными квантовыми пределами, такими как принцип неопределенности Гейзенберга, что приводит к высоким показателям ошибок в наноустройствах. Перемещение данных: Перемещение данных (узкое место фон Неймана) доминирует в энергетическом бюджете современных систем (94% энергии), делая требования ОИИ к пропускной способности памяти нереализуемыми в планетарном масштабе. Энергетический масштаб: Требования к энергии для одного ОИИ (2,9 МВт) в 100 миллионов раз превышают текущую глобальную выработку энергии, что требует покрытия 22% суши Земли солнечными панелями для каждой такой установки. Научный руководитель OpenAl (разработчик ChatGPT) Илья Суцкевер объявил об уходе из компании. Это произошло на фоне разногласий с главой компании Альтманом по поводу того, как быстро надо развивать ИИ и не будет ли он угрожать человеку «Спустя почти 10 лет я принял решение покинуть OpenAI», — написал он в соцсети X (ранее Twitter, заблокирована в России). И выразил уверенность, что компания под руководством гендиректора Сэма Альтмана создаст «безопасный и полезный искусственный разум» (artificial general intelligence, AGI). Суцкевер сообщил, что в свое время расскажет о новом проекте, который «очень важен» для него лично. «Илья и OpenAI собираются расстаться», — подтвердил уход Суцкевера глава компании Альтман. Он назвал его «одним из величайших умов поколения, путеводной звездой в нашей области и дорогим другом», который «так сосредоточен на достижении лучшего будущего для человечества». «Без него OpenAI не была бы тем, чем она является», — отметил Альтман в Х. Он сообщил, что пост Суцкевера займет директор OpenAI по научным исследованиям компании Якуб Пачоцки. Суцкевер родился в 1984 году в Нижнем Новгороде. В 1991-м вместе с семьей эмигрировал в Израиль, откуда переехал в Канаду. В Торонто в 2012 году он сделал себе имя, став соавтором статьи о необычайных возможностях алгоритмов «глубокого обучения». В 2015 году Суцкевер стал главным научным сотрудником OpenAI, сосредоточившись на двух идеях: системы ИИ могут развивать мышление до уровне человека (AGI) и они могут быть опасны, если не «согласованы» с человеческими ценностями. В конце 2022 года Суцкевер заявил сотрудникам, что обеспокоен тем, что в конечном итоге AGI будет относиться к людям так же, как люди в настоящее время относятся к животным, рассказали ранее источники The Wall Street Journal. Именно из-за этого Суцкевер поссорился с Альтманом, отметили они. В ноябре 2023 года Суцкевер стал одним из четырех членов совета директоров OpenAI, которые предложили уволить Альтмана. По данным источников WSJ, именно Суцкевер инициировал увольнение Альтмана, который перешел в Microsoft. После этого 700 из 770 сотрудников OpenAl пригрозили, что последуют за Альтманом. Возмутились инвесторы. В результате Суцкевер заявил, что глубоко сожалеет о своем участии в действиях совета директоров и пообещал «сделать все, что в его силах, чтобы воссоединить компанию». Вскоре Альтман был восстановлен в должности. Он сразу заявил, что Суцкевер не вернется на прежний пост члена совета директоров, но компания «обсуждает, как он может продолжить свою работу в OpenAI». В последующие месяцы Суцкевер практически исчез из поля зрения общественности, что вызвало слухи о его дальнейшей работе в компании, отмечает Time. Пост Суцкевера об уходе из OpenAI стал его первым появлением в соцсети почти за полгода, подчеркивает издание. Источник: aftershock.news Комментарии: |
|