ChatGPT o3-Pro: самая мощная и дорогая модель от OpenAI

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


2025-06-12 11:20

ИИ проекты

Запуск OpenAI o3-pro уже доступен для пользователей Pro в ChatGPT и в нашем API (10 июня 2025 г.)

Как и o1-pro, o3-pro — это версия нашей самой интеллектуальной модели o3, разработанная для того, чтобы думать дольше и обеспечивать наиболее надежные ответы. С момента запуска o1-pro пользователи отдавали предпочтение этой модели в таких областях, как математика, естественные науки и программирование — областях, в которых o3-pro продолжает преуспевать, как показывают академические оценки. Как и o3, o3-pro имеет доступ к инструментам, которые делают ChatGPT полезным — он может искать в Интернете, анализировать файлы, рассуждать о визуальном вводе, использовать Python, персонализировать ответы с помощью памяти и многое другое. Поскольку у o3-pro есть доступ к инструментам, ответы обычно занимают больше времени, чем у o1-pro. Мы рекомендуем использовать его для решения сложных вопросов, где надежность важнее скорости, и ожидание нескольких минут стоит того, чтобы пойти на компромисс.

В экспертных оценках рецензенты неизменно отдают предпочтение o3-pro перед o3 в каждой тестируемой категории, особенно в таких ключевых областях, как наука, образование, программирование, бизнес и помощь в написании текстов. Рецензенты также постоянно оценивали o3-pro выше за ясность, полноту, следование инструкциям и точность.

Академические оценки показывают, что o3-pro стабильно превосходит как o1-pro, так и o3.

Чтобы оценить ключевые преимущества o3-pro, мы снова используем нашу строгую оценку надежности «4/4», где модель считается успешной только в том случае, если она правильно отвечает на вопрос во всех четырех попытках, а не только в одной:

С сегодняшнего дня o3-pro доступен в средстве выбора моделей для пользователей Pro и Team, заменяя o1-pro. Пользователи Enterprise и Edu получат доступ через неделю.

Поскольку o3-pro использует ту же базовую модель, что и o3, полную информацию о безопасности можно найти на системной карте o3.

Ограничения

На данный момент временные чаты отключены для o3-pro, так как мы решаем техническую проблему.

Генерация изображений не поддерживается в o3-pro — используйте GPT-4o, OpenAI o3 или OpenAI o4-mini для генерации изображений.

Canvas также в настоящее время не поддерживается в o3-pro.

Обновления расширенного голосового режима для платных пользователей (7 июня 2025 г.)

Мы обновляем расширенный голосовой голос в ChatGPT для платных пользователей со значительными улучшениями интонации и естественности, благодаря чему взаимодействие становится более плавным и похожим на человеческое. Когда мы впервые запустили Advanced Voice, это был скачок вперед в речи с помощью искусственного интеллекта — теперь он говорит еще более естественно, с более тонкой интонацией, реалистичной интонацией (включая паузы и акценты) и более точной выразительностью определенных эмоций, включая эмпатию, сарказм и многое другое.

Voice также теперь предлагает интуитивно понятный и эффективный языковой перевод. Просто попросите Voice перевести с одного языка на другой, и он будет продолжать переводить на протяжении всего разговора, пока вы не скажете ему остановиться или переключиться. Он готов к переводу в любое время, независимо от того, спрашиваете ли вы дорогу в Италии или общаетесь с коллегой из офиса в Токио. Например, в ресторане в Бразилии Voice может переводить ваши английские предложения на португальский, а португальские ответы официанта обратно на английский, что упрощает разговор, независимо от того, где вы находитесь и с кем разговариваете.

Это обновление до Advanced Voice доступно для всех платных пользователей на всех рынках и платформах — просто коснитесь значка Voice в редакторе сообщений, чтобы начать работу.

Это обновление является дополнением к улучшениям, которые мы внесли ранее в этом году, чтобы уменьшить количество прерываний и улучшить акценты.

Известные ограничения

Во время тестирования мы заметили, что это обновление может иногда вызывать незначительное снижение качества звука, включая неожиданные изменения тона и высоты тона. Эти проблемы более заметны при использовании определенных голосовых опций. Со временем мы планируем улучшить согласованность звука.

Кроме того, в этом обновлении сохраняются редкие галлюцинации в голосовом режиме, что приводит к появлению непреднамеренных звуков, напоминающих рекламу, тарабарщину или фоновую музыку. Мы активно изучаем эти проблемы и работаем над их решением.

Обновление до o4-mini (6 июня 2025 г.)

Мы откатываем снимок o4-mini, который мы развернули менее недели назад и который был предназначен для увеличения длины ответов модели, потому что наши автоматизированные инструменты мониторинга обнаружили увеличение количества флагов содержимого.

Выпуск GPT-4.1 в ChatGPT для всех платных пользователей (14 мая 2025 г.)

С момента запуска в API в апреле GPT-4.1 стал фаворитом среди разработчиков — по многочисленным просьбам мы делаем его доступным прямо в ChatGPT.

GPT-4.1 — это специализированная модель, которая отлично справляется с задачами кодирования. По сравнению с GPT-4o, он еще сильнее справляется с точным следованием инструкциям и задачами веб-разработки, а также предлагает альтернативу OpenAI o3 и OpenAI o4-mini для более простых повседневных задач кодирования.

Начиная с сегодняшнего дня, пользователи Plus, Pro и Team могут получить доступ к GPT-4.1 через выпадающее меню «Больше моделей» в окне выбора моделей. Пользователи Enterprise и Edu получат доступ в ближайшие недели. GPT-4.1 имеет те же ограничения скорости, что и GPT-4o для платных пользователей.

Представляем GPT-4.1 mini, заменяющий GPT-4o mini, в ChatGPT для всех пользователей (14 мая 2025 г.)

GPT-4.1 mini — это быстрая, функциональная и эффективная небольшая модель, обеспечивающая значительные улучшения по сравнению с GPT-4o mini — в следовании инструкциям, кодировании и общем интеллекте. Начиная с сегодняшнего дня, GPT-4.1 mini заменяет GPT-4o mini в окне выбора моделей в разделе «Больше моделей» для платных пользователей и будет служить резервной моделью для бесплатных пользователей, как только они достигнут своих лимитов использования GPT-4o. Лимиты скорости остаются прежними.

Оценки для GPT-4.1 и GPT-4.1 mini первоначально были опубликованы в сообщении в блоге, сопровождающем их выпуск API. Они также прошли стандартную оценку безопасности. Подробные результаты доступны в недавно запущенном Центре оценки безопасности.

Улучшение GPT-4o (12 мая 2025 г.)

Мы улучшили системные инструкции GPT-4o, чтобы обеспечить вызов инструмента создания изображений, когда вы хотите создать изображение в ChatGPT.

Обновление до GPT-4o (29 апреля 2025 г.)

Мы отменили последнее обновление GPT-4o из-за проблем с слишком приятными ответами (подхалимство).

Мы активно работаем над дальнейшими улучшениями. Чтобы узнать подробности, ознакомьтесь с нашей публикацией в блоге, объясняющей, что произошло и каковы наши первоначальные выводы, а также с этой статьей, в которой мы подробно рассказываем о том, что мы упустили из-за подхалимства, и об изменениях, которые мы собираемся внести в будущем.

Улучшения для GPT-4o (25 апреля 2025 г.)

Мы вносим дополнительные улучшения в GPT-4o, оптимизируя сохранение памяти и расширяя возможности решения проблем в STEM. Мы также внесли небольшие изменения в то, как он реагирует, сделав его более активным и лучше направляя разговоры к продуктивным результатам. Мы считаем, что эти обновления помогут GPT-4o чувствовать себя более интуитивно понятным и эффективным при выполнении различных задач — мы надеемся, вы с этим согласитесь!

OpenAI o3 и o4-mini (16 апреля 2025 г.)

OpenAI o3 — это наша самая мощная модель рассуждений, которая расширяет границы программирования, математики, естественных наук, визуального восприятия и многого другого. Он устанавливает новую SOTA для тестов, включая Codeforces, SWE-bench (без создания пользовательского шаблона для конкретной модели) и MMMU. Он идеально подходит для сложных запросов, требующих многостороннего анализа и ответы на которые могут быть не сразу очевидны. Он особенно хорошо справляется с визуальными задачами, такими как анализ изображений, диаграмм и графики. По оценкам внешних экспертов, o3 допускает на 20% меньше серьезных ошибок, чем OpenAI o1, при выполнении сложных реальных задач, особенно в таких областях, как программирование, бизнес/консалтинг и креативное мышление. Ранние тестировщики подчеркивали его аналитическую строгость в качестве партнера по размышлению и подчеркивали его способность генерировать и критически оценивать новые гипотезы, особенно в контексте биологии, математики и инженерии.

OpenAI o4-mini — это модель меньшего размера, оптимизированная для быстрого и экономичного мышления — она достигает замечательной производительности для своего размера и стоимости, особенно в математических, программных и визуальных задачах. Это самая эффективная эталонная модель на AIME 2024 и 2025 годов. В экспертных оценках он также превосходит своего предшественника, o3-mini, в задачах, не связанных с STEM, а также в таких областях, как наука о данных. Благодаря своей эффективности, o4-mini поддерживает значительно более высокие пределы использования, чем o3, что делает его отличным вариантом для больших объемов и высокой пропускной способности для вопросов, которые выигрывают от рассуждения.

Улучшения для GPT-4o (27 марта 2025 г.)

Мы внесли улучшения в GPT-4o — теперь он кажется более интуитивно понятным, творческим и совместным, с улучшенным следованием инструкциям, более умными возможностями программирования и более понятным стилем общения.

Более разумное решение проблем в области STEM и кодирования:

GPT-4o еще больше улучшил свои возможности по решению сложных технических проблем и проблем кодирования. Теперь он генерирует более чистый и простой код клиентской части, более точно продумывает существующий код для определения необходимых изменений и последовательно создает выходные данные кодирования, которые успешно компилируются и выполняются, оптимизируя рабочие процессы кодирования.

Повышенная точность следования инструкциям и форматирования:

GPT-4o теперь лучше справляется с подробными инструкциями, особенно для запросов, содержащих несколько или сложных запросов. Это улучшает генерацию выходных данных в соответствии с требуемым форматом и обеспечивает более высокую точность в задачах классификации.

"Нечеткие" улучшения:

Ранние тестировщики говорят, что модель, похоже, лучше понимает подразумеваемое намерение, стоящее за их подсказками, особенно когда речь идет о творческих и совместных задачах. Он также немного более краток и понятен, в нем используется меньше иерархий разметки и эмодзи для ответов, которые легче читать, они менее загромождены и более сфокусированы. Нам любопытно узнать, считают ли это так же наши пользователи.

Эта модель теперь доступна в ChatGPT и в API как новейший снимок chatgpt-4o-latest. В ближайшие недели мы планируем довести эти улучшения до устаревшей модели в API.

Представляем GPT-4.5 (27 февраля 2025 г.)

Мы выпускаем предварительную исследовательскую версию GPT-4.5 — нашей самой большой и лучшей модели для чата. GPT-4.5 — это шаг вперед в расширении дотренинговых и посттренинговых систем. Масштабируя обучение без учителя, GPT-4.5 улучшает свою способность распознавать закономерности, устанавливать связи и генерировать творческие идеи без рассуждений.

Раннее тестирование показало, что взаимодействие с GPT-4.5 кажется более естественным. Его более широкая база знаний, улучшенная способность следовать намерениям пользователя и более высокий «EQ» делают его полезным для таких задач, как улучшение письма, программирования и решения практических проблем. Мы также ожидаем, что у него будет меньше галлюцинаций.

Мы публикуем GPT-4.5 в качестве предварительного обзора, чтобы лучше понять его сильные стороны и ограничения. Мы все еще изучаем, на что он способен, и хотим увидеть, как люди используют его так, как мы, возможно, не ожидали.

GPT-4.5 доступен по всему миру для пользователей на тарифе Pro в ChatGPT. В конечном итоге это будет доступно для всех платных планов (Plus, Pro, Teams, Enterprise и Edu) с учетной записью ChatGPT.

Представляем OpenAI o3-mini (31 января 2025 г.)

Мы рады представить o3-mini, нашу новейшую экономичную модель рассуждений, оптимизированную для программирования, математики и естественных наук.

В API o3-mini поддерживает структурированные выходы, вызов функций, сообщения разработчикам и потоковую передачу. Он предлагает три настраиваемых усилия рассуждения (низкое, среднее и высокое), чтобы вы могли сбалансировать скорость и глубину для вашего сценария использования.

Пользователи планов ChatGPT Team, Pro, Plus и Free могут получить доступ к o3-mini с сегодняшнего дня. Кроме того, o3-mini теперь работает с поиском актуальных ответов со ссылками на соответствующие веб-источники. Это ранний прототип, поскольку мы работаем над интеграцией поиска в наши модели рассуждений. В параллельном тестировании o3-mini показал результаты наравне с o1 при меньшей задержке и превзошел o1-mini в сложных задачах STEM.

Эксперты-оценщики предпочитали ответы o3-mini в 56% случаев, а не o1-mini, ссылаясь на повышенную ясность и меньшее количество критических ошибок в сложных вопросах. Мы с нетерпением ждем ваших отзывов и будем продолжать совершенствовать o3-mini по мере расширения нашего семейства моделей с передовым мышлением.

Обновления GPT-4o в ChatGPT (29 января 2025 г.)

Мы внесли некоторые обновления в GPT-4o — теперь это более умная модель по всем направлениям с более актуальными знаниями, а также более глубоким пониманием и анализом загружаемых изображений.

Более актуальные знания: Продлив порог обучающих данных с ноября 2023 года до июня 2024 года, GPT-4o теперь может предлагать более актуальные, актуальные и контекстуально точные ответы, особенно на вопросы, связанные с культурными и социальными тенденциями или более современными исследованиями. Более свежий набор обучающих данных также облегчает модели более эффективную и результативную структуру поиска в Интернете.

Более глубокое понимание и анализ загружаемых изображений:

GPT-4o теперь лучше понимает и отвечает на вопросы о визуальном вводе, благодаря улучшениям в мультимодальных тестах, таких как MMMU и MathVista. Обновленная модель лучше интерпретирует пространственные отношения при загрузке изображений, а также анализирует сложные диаграммы, понимает диаграммы и графики, а также связывает визуальный ввод с письменным содержимым. Ответы на загрузку изображений будут содержать более подробную информацию и более точные рекомендации в таких областях, как пространственное планирование и дизайн-макеты, а также визуальное математическое или техническое решение проблем.

Более умная модель, особенно для STEM: GPT-4o теперь лучше справляется с математикой, естественными науками и задачами, связанными с программированием, с улучшением в академических оценках, таких как GPQA и MATH. Улучшенный балл по MMLU — всестороннему эталону понимания языка, широты знаний и рассуждений — отражает его способность решать более сложные проблемы в разных областях.

Повышенное использование ? эмодзи : GPT-4o теперь с большим энтузиазмом использует свои эмодзи (возможно, особенно если вы используете эмодзи в разговоре ?) — дайте нам знать, что вы думаете.

Знакомство с GPT-4o с запланированными задачами (14 января 2025 г.)

Сегодня мы запускаем бета-версию задач — новый способ попросить ChatGPT сделать что-то за вас в будущем. Будь то разовые напоминания или повторяющиеся действия, сообщите ChatGPT, что вам нужно и когда, и он автоматически позаботится об этом.

Запланированные задачи находятся на ранней стадии бета-тестирования для Plus, Pro и Teams. В конечном итоге это будет доступно всем, у кого есть учетная запись ChatGPT.

Обновление до GPT-4o (20 ноября 2024 г.)

Мы обновили GPT-4o для пользователей ChatGPT на всех платных уровнях. Это обновление для GPT-4o включает в себя улучшенные возможности письма, которые теперь более естественны, понятны аудитории и адаптированы для повышения релевантности и удобочитаемости. Эта модель также лучше работает с загруженными файлами, способна обеспечить более глубокое понимание и более подробные ответы.

Обновление до GPT 4o-mini (5 ноября 2024 г.)

Сегодня мы обновили GPT-4o mini для пользователей ChatGPT на уровнях Free, Plus и Team, а также для пользователей, которые используют ChatGPT вне системы.

Представляем GPT-4o с холстом (3 октября, 2024)

Мы обучили GPT-4o сотрудничать в качестве творческого партнера. Модель знает, когда нужно открыть холст, внести целевые правки и полностью переписать. Он также понимает более широкий контекст, чтобы предоставлять точную обратную связь и предложения.

Canvas находится на ранней стадии бета-тестирования, и мы планируем быстро улучшать его возможности.

Расширенная голосовая связь (24 сентября 2024 г.)

Advanced Voice использует встроенные аудиовозможности GPT-4o и обеспечивает более естественные разговоры в режиме реального времени, которые улавливают невербальные сигналы, такие как скорость вашей речи, и могут реагировать эмоциями. Использование расширенной голосовой связи (аудиовходы и выходы) пользователями Plus и Team ограничено на ежедневной основе.

Представляем OpenAI o1-preview и o1-mini (12 сентября 2024 г.)

Мы разработали новую серию моделей искусственного интеллекта, которые позволяют тратить больше времени на обдумывание, прежде чем отреагировать. Они могут рассуждать над сложными задачами и решать более сложные проблемы, чем предыдущие модели в науке, программировании и математике.

Сегодня мы выпускаем первый из этой серии в ChatGPT и нашем API. Это предварительная версия, и мы ожидаем регулярных обновлений и улучшений.

Пользователи ChatGPT Plus и Team смогут получить доступ к моделям o1 в ChatGPT с сегодняшнего дня. И o1-preview, и o1-mini можно выбрать вручную в окне выбора моделей, а при запуске недельные лимиты скорости будут составлять 30 сообщений для o1-preview и 50 для o1-mini. Мы работаем над тем, чтобы увеличить эти показатели и позволить ChatGPT автоматически выбирать подходящую модель для заданного запроса.

Обновление до GPT-4o (3 сентября 2024 г.)

Сегодня мы обновили GPT-4o в ChatGPT. Эта версия лучше интегрирует загруженные файлы и обновляет память с ключевыми частями разговора, чтобы сделать будущие взаимодействия более полезными и актуальными.

Обновление до GPT-4o (12 августа 2024 г.)

"Исправление ошибок и повышение производительности" ... Мы представили обновление для GPT-4o, которое, как мы выяснили, благодаря результатам экспериментов и качественным отзывам, пользователи ChatGPT, как правило, предпочитают использовать его. Это не новая модель пограничного класса. Хотя мы хотели бы рассказать вам, чем именно отличаются реакции моделей, выяснение того, как детально сравнивать и сообщать об улучшениях поведения модели, само по себе является постоянной областью исследований (над которой мы работаем!).

Иногда мы можем указать на новые возможности и конкретные улучшения, и мы постараемся сделать все возможное, чтобы сообщить об этом при любой возможности. В то же время наша команда постоянно совершенствует модель, добавляя хорошие данные, удаляя плохие данные и экспериментируя с новыми методами исследования на основе отзывов пользователей, офлайн-оценок и многого другого. Именно так обстоит дело с этим обновлением модели.

Мы будем продолжать держать вас в курсе как можно лучше. Спасибо за ваше терпение!

Представляем GPT-4o mini (18 июля 2024 г.)

Мы представляем GPT-4o mini, самую мощную и экономичную маленькую модель, доступную на сегодняшний день. GPT-4o mini превосходит GPT-3.5 Turbo и другие небольшие модели в академических тестах как по текстовому интеллекту, так и по мультимодальному рассуждению, и поддерживает тот же диапазон языков, что и GPT-4o. Он также демонстрирует высокую производительность при вызове функций, что позволяет разработчикам создавать приложения, которые получают данные или выполняют действия с внешними системами, а также улучшенную производительность в длинном контексте по сравнению с GPT-3.5 Turbo.


Источник: help.openai.com

Комментарии: