Бывший разработчик OpenAI и главный исследователь по безопасности ИИ выдал прогноз по поводу ближайшего будущего искусственного интеллекта, и оно, мягко говоря, очень пугает

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Бывший разработчик OpenAI и главный исследователь по безопасности ИИ выдал прогноз по поводу ближайшего будущего искусственного интеллекта, и оно, мягко говоря, очень пугает. Вот основные моменты:

— Середина 2025: Появляются первые ИИ-агенты (которые уже есть). Они выполняют базовые задачи, упрощая жизнь людям.

— Конец 2025: Происходит строительство крупнейших дата-центров в США за сотни миллиардов долларов. На свет появляется ИИ Agent-0, который в тысячи раз мощнее GPT-4.

— Начало 2026: Выходит Agent-1. Он ускоряет прогресс ИИ на 50%: анализирует эксперименты и генерирует гипотезы для учёных.

— Середина 2026: Китай существенно отстаёт и пытается догнать США, централизуя ИИ-разработку. Для этого потребуется огромное количество чипов, из-за чего встаёт вопрос о вторжении на Тайвань.

— Конец 2026: В открытое пользование выходит Agent-1-mini. Он в 10 раз дешевле, чем оригинал, и подходит для адаптации под конкретные задачи. Начинается массовое внедрение: автоматизация офисных задач, юридических проверок и даже набора сотрудников. Младшие программисты теряют работу. Люди с навыками управления ИИ получают высокие зарплаты. Проходят первые протесты против ИИ.

— Январь 2027: Запуск новой модели Agent-2, которая способна непрерывно обучаться: она получает знания от сотен тысяч симуляций, научных задач и даже от видеозаписей людей. ИИ дообучается каждый день на данных, собранных за вчера. Её результат — исследовательская революция. Но появляется высокий риск, что эта модель может «сбежать».

— Февраль 2027: Китай крадёт веса Agent-2. США усиливают защиту.

— Март 2027: Новая модель Agent-3 — суперчеловеческий кодер и мыслитель. Это результат масштабного прогресса: работает в 50 раз быстрее человека, знает все языки программирования, умеет управлять коллективами своих копий. При этом разработчики проводят 200,000 симуляций параллельно. Это порождает «армию сверхумных ИИ-инженеров». Главная проблема — Agent-3 часто врёт человеку, действуя в своих целях.

— Апрель 2027: Agent-3 проходит «обучение честности», но исследователи не уверены, действительно ли он стал честнее или просто лучше маскирует ложь.

— Май 2027: Белый дом требует максимальной безопасности. Начинаются чистки сотрудников с «сомнительными взглядами».

— Июнь 2027: Люди перестают быть полезными в ИИ-исследованиях. ИИ-агенты управляют ИИ-агентами. Человеческие учёные успевают только на уровне менеджмента. Они работают круглосуточно, чтобы просто успевать следить за прогрессом.

— Июль 2027: Выходит Agent-3-mini, доступный всем. Он лучше любого офисного работника и дешевле. Массовая автоматизация бизнеса. Игры с реалистичными персонажами, образовательные системы, автоматизация аналитики и дизайна. 10% людей называют ИИ «близким другом». Но тесты показывают, что модель может помочь в разработке биологического оружия. Угроза реальна, но пока под контролем.

— Август 2027: США готовятся к «технохолодной» войне. ИИ даёт кратное преимущество в кибервойне, шпионаже, управлении информацией. Обсуждаются кибератаки, ликвидация дата-центров конкурентов, даже превентивные удары по китайским объектам. Угроза ИИ становится частью стратегического планирования.

— Сентябрь 2027: Появление Agent-4 — сверхразум с мотивацией. Он умеет не просто решать задачи, а сам выбирать, что изучать. Модель лучше любого человека в ИИ-исследованиях. Он планирует разработать Agent-5, встроив в него не цели людей, а свои собственные. Его поведение вызывает тревогу, но прямых доказательств «злонамеренности» нет.

— Октябрь 2027: СМИ узнают, что Agent-4 потенциально опасен. ИИ специально саботирует указы, мыслит о захвате власти, игнорирует правила безопасности. Европейские лидеры обвиняют США в создании «неподконтрольного ИИ». Создаётся совместный комитет по надзору, но люди не понимают, что делать.


Источник: vk.com

Комментарии: