OpenAI открыла доступ к продвинутому голосовому режиму ChatGPT на базе новой модели GPT-4o |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2024-10-05 12:53 OpenAI открыла доступ к продвинутому голосовому режиму ChatGPT на базе новой модели GPT-4o. Теперь он доступен всем платным пользователям чат-бота. Опция заработала для подписчиков ChatGPT Plus и пользователей сервиса для бизнеса ChatGPT Team. Ранее развёртывание голосового режима приостановили из-за проблем с безопасностью. Теперь же, как отмечают СМИ, новому помощнику не хватает ряда функций, которые компания изначально анонсировала. Так, чат-бот в настоящее время не может получить доступ к функции «компьютерного зрения», которая позволила бы ему предлагать обратную связь, используя изображение с камеры смартфона. Между тем для функции Advanced Voice добавили пользовательские инструкции, память, пять новых голосов и улучшенные акценты. Они включают три женских голоса (Vale, Maple и Sol) и два мужских голоса (Spruce и Arbor). Также есть новая опция для настроек под названием Custom Instructions, которая позволит применять голосовой режим для взаимодействия с другими пользователями OpenAI сообщает, что функция также получила обновления для «улучшенной скорости разговора, плавности и акцентов на некоторых иностранных языках». Хотя она станет более широкодоступной на этой неделе, Advanced Voice пока не будет работать в ЕС, Великобритании, Швейцарии, Исландии, Норвегии и Лихтенштейне. В мае OpenAI представила модель GPT-4o, которая способна реагировать на аудиовход всего за 232 миллисекунды, а в среднем за 320 миллисекунд, общается голосом «как человек», меняя интонации, и запоминает все беседы с пользователем. В июле часть подписчиков ChatGPT Plus уже смогла протестировать возможности голосового режима. Источник: habr.com Комментарии: |
|