Как дела у GPT?

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Часто вижу технические вопросы по LaTeX, Manim или Asymptote, которые по-старинке адресуют незнакомым людям в чатах и на форумах, хотя во многих случаях хватило бы нейросетей. С людьми же можно поговорить о чем-то более содержательном: этикет не поспевает за действительностью.

Иллюзий не питаю: до творческих задач всем нейросетям еще невероятно далеко, их уровень по-прежнему примитивный. А уж видео, которые генерирует Sora AI, вопреки ожиданиям, годятся только для забавы. Но по мелочам недавно меня самого перещеголял GPT. Забыл название метода для копирования настроек объекта в Manim и с ходу не нашел, но выручил HAL 9000. Сейчас и многие другие языковые модели не уступают GPT: канал Tech-Talk в помощь.

Раз в полгода устраиваю «тест Тьюринга». Прошу написать код для визуализации теоремы Пифагора. Сегодня впервые результат удался. Но не с первого запроса. Квадрат гипотенузы просил поправить, и лейблы не сразу встали. Картинки прикрепляю. Зато сейчас код стал отображаться крупно (на «холсте»). Есть даже встроенный терминал, хотя и неактуальный в случе с Manim. С LaTeX и другими популярными вопросами вероятность получить толковые ответы гораздо выше.

Но вновь замечу, что до учительской роли GPT еще далековато. По крайней мере, не в таких узких областях. В Discord-канал Manim (который общий, англоязычный) часто приходят участники, которые не стали изучать основы библиотеки, а решили пообщаться с GPT. И старожилы, конечно, ворчат на результаты такого взаимодействия


Источник: vk.com

Комментарии: