Как начать работать с ChatGPT правильно?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Ситуация: есть всемирно известная текстовая нейросеть, про неё все говорят, но как пробуешь сам, ... кроме как игрушкой которая что-то там пишет и что-то сочиняет - не назвать.

Почему так?

Сегодня, например, в комментариях у нас спросили почему большая часть тестов от GPT - стилистически одинаковая? ?

У меня есть предположение почему у многих такие вопросы и почему в принципе может быть такое поверхностное отношение к GPT.

Прочитайте пост до конца и тоже поймете принципиальную разницу подходов к ChatGPT, которые сейчас распространены в РФ. А потом попробуете сами и сравните результат )

Официальный, общедоступный ChatGPT открылся для всех в ноябре 2022 года.

С этого момента появилось множество решений/ботов на базе ChatGPT, которые сразу массированно рекламировались, например, как:

1. "Бот, который генерирует контент-план для сообщества за 3 минуты!", "Бот-генератор контент-плана, постов, идей для сторис и др";

2. Как сервисы постинга, которые добавили к себе возможность создавать посты через нейронки;

3. Как ТГ боты для частных решений через ChatGPT;

Ни в коей мере не накидываю сейчас на коллег, но хочу приоткрыть занавесу, о которой знают не многие.

Ввиду того что в РФ доступ к chatGPT есть только через VPN - подозреваю что многие решили попробовать работать с chatGPT не через официальный сайт, а как раз через такие чат-боты, подразумевая что работает это одинаково.

Не одинаково! ))

Давайте разберемся - какая есть разница ответов от ChatGPT - когда вы работаете с ним через официальный сайт и когда работаете через чат-боты/сервисы.

1. Все подобные чат-боты работают с ChatGPT через его API;

2. У API ChatGPT есть лимиты на токены и "память";

3. У сайта тоже есть эти лимиты, но они намного больше;

Что такое токены, что такое "память" и как это влияет на качество работы с GPT.

— Токен это часть текста (слово, часть слово или знак пунктуации). В токенах измеряется объем информации которым можно обменяться с GPT.

— "Память" - способность ChatGPT запоминать вашу с ним беседу. Это помогает ему удерживать контекст текущего разговора. И строить последующие ответы опираясь на то что было раньше.

Идем далее - как это влияет на разницу работ через сайт и через API?

Раз у сайта таких лимитов больше, давайте посмотрим как это может повлиять на результат ответа.

Тестовый запрос: "Подскажите, как создать эффективную рекламную кампанию в Яндекс Директ?"

Ответ через сайт OpenAI:

"Для успешного создания эффективной рекламной кампании в ЯндексДирект, вам рекомендуется следующее:

— Анализ ключевых слов: Проведите тщательный анализ и выберите ключевые слова, наиболее релевантные вашему бизнесу.

— Таргетинг: Настройте стратегию таргетинга, определив целевую аудиторию по параметрам, таким как возраст, пол и местоположение.

— Создание объявлений: Работайте над убедительными объявлениями с четкими призывами к действию.

— Мониторинг и оптимизация: Регулярно отслеживайте результаты и оптимизируйте кампанию в соответствии с производительностью ключевых слов и объявлений."

Ответ через чат-бота по API:

"Для успешной рекламной кампании в ЯндексДирект важно выбрать хорошие ключевые слова, настроить таргетинг и создать привлекательные объявления."

Пример, повторюсь - простой, чтоб показать наглядность разницы объема и качества ответов. Поэтому не надо сейчас в комментариях говорить за качество рекомендаций по РК )) Их можно последующими итерациями докоректировать (но об этом в других постах).

Как именно лимиты по токенам повлияли на такую разницу в ответах?

1) Для ответ через сайт OpenAI:

Для обширного и более детального ответа, подобного приведенному примеру, могут использоваться сотни токенов. Разбор каждого этапа рекламной кампании в ЯндексДирект, упоминание инструментов и рекомендаций требует заметного объема текста.

Т.е. токены могут тратится не только для вывода инфы, но и для глубокого поиска внутри GPT.

2) Для ответа через чат-бота по API:

Ограничение API на 4096 токенов подразумевает, что ответ будет более кратким. Вероятно, использование ботом заметного количества токенов, чтобы дать подробный ответ, привело бы к выходу за пределы ограничения.

Грубо говоря - когда вы работаете через API - вам выдают поверхностные решения, для экономии ресурсов выделяемых для API ChatGPT.

Поэтому - просьба )) Если вы работали или работаете через сторонние решения (сервисы, тг/вк чат боты) - попробуйте сейчас всё то же самое сделать через официальный сайт OpenAI - удивитесь различиям.

Подключение к оф сайту ChatGPT - рекомендуем сделать через наш гайд: https://vk.com/wall-73662138_883202

В комментариях жду обсудить тех, кто работал через сайт и через ботов ) Может у вас другой опыт и вы хотите со мной поспорить ))


Источник: vk.com

Комментарии: