SEO-копирайтинг умрет — тестируем нейросеть для генерации текста |
||
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2020-02-14 12:48 Мы даже не замечаем, как искусственный интеллект прочно входит в нашу жизнь. Во многих сферах его работа незаметна, но в ближайшем будущем искусственный интеллект может принести фундаментальные изменения везде — не только там, где можно автоматизировать процессы, но и там, где нужен творческий подход и креативность. Последний пример — генератор текста от лаборатории Open AI. Нейросеть, которая незатейливо называется GPT-2, может генерировать тексты на заданную или произвольную тему. Система научилась писать, изучая контент 8 миллионов сайтов. Сначала, в феврале 2019 года, компания разместила на GitHub урезанную версию своей модели, побоявшись, что ее инструмент может быть использован в корыстных целях. Но в ноябре 2019 года в Open AI передумали и решили выпустить финальную версию нейросети с 1,5 миллиардами параметров. Давайте вместо долгого гадания того, заменит ли искусственный интеллект копирайтеров (workinnet.ru), просто на практике испытаем его возможности. Сразу нужно предупредить, что нейросеть не всегда выдает осмысленные тексты, и они пока доступны только на английском. Тем не менее, результаты достойны внимания и даже в некоторых случаях их можно использовать в коммерческих целях. Мы для примера взяли нейросеть, загруженную на Google Colab и, как альтернативу, модель, используемую сервисом TalkToTransfоrmer. Нейросеть не нуждается в обучении — она уже обучена и, по сути, представляет собой готовый генератор текста, на вход которого нужно подать вопрос или подсказку. Генератор сам выдаст текст. Итак, открываем GPT-2 на Google Colab, выбираем одну из моделей (лучше всего выбрать 1558М — самую большую) и нажимаем «Play». Нейросеть загрузится и через несколько минут будет готова к работе. После этого нужно перейти к следующий ячейке внизу с описанием «Generate samples by user input» и также нажать кнопку «Play». Ждем несколько секунд, после чего внизу появляется строка «Model Prompt», куда мы вводим наш вопрос или подсказку. Давайте попробуем ввести «Ученые нашли чудодейственное средство от болей в спине» на английском. Чтобы в генерации текста от начала до конца участвовал ИИ, переводим фразу с помощью Google Переводчика и вставляем ее в окошко. Нажимаем Enter и ждем появления готового текста. Нейросеть выдает нам статью на 2 500 символов. Содержание не идеально, но, учитывая, что машина сама придумала весь текст, он вполне сносно передает смысл. Проверяем текст на уникальность и получаем 100%. Неудивительно для текста с придуманным ученым Даниелой Владимировой из придуманного Института имени Павла Городецкого. Как найти скрытый трафик из социальных сетей Теперь пробуем сгенерировать текст с помощью сервиса TalkToTransfоrmer.com. Открываем сайт, вводим в окошко ту же самую подсказку. В итоге через несколько секунд получаем осмысленный текст о недавно найденном средстве, основу которого составляют бактерии. Что интересно, первая модель также почему-то рассказала о средстве на базе бактерий, которое лечит мышцы спины. Однако текст от TalkToTransfоrmer ограничен в объеме — сервис выдал всего 700 символов. Тем не менее, мы заметили, что нейросеть TalkToTransfоrmer иногда генерирует немного более связные и естественные тексты. Ограничение в объеме текста можно преодолеть вводя новые подсказки, связанные с предыдущей подсказкой и таким образом построить текст с подзаголовками. Например, после текста о чудодейственном средстве вводим вопрос «Что вызывает боли в спине?». На этот раз получаем на выходе уже нормальный почти «человеческий» текст, особенно в версии от TalkToTransfоrmer. Теперь из нескольких текстов можно собрать полноценную статью с подзаголовками. Далее пробуем ввести подсказки по более сложным и творческим задачам. Например, «как нарисовать елку». GPT-2 на Colab выдает полную бессмыслицу, в то время как TalkToTransfоrmer также понесло не в ту степь и он начал рассказывать про 3D-моделирование и Photoshop. Видимо, не все задачи под силу искусственному интеллекту. Может быть попробовать сгенерировать более простую инструкцию? Введем «Как играть на гитаре?». Конечно машинный перевод текста от GPT-2 выглядит не совсем красиво, но на английском текст кажется более органичным и естественным. То же самое можно сказать и про версию от TalkToTransfоrmer. Тут нужно пояснить, что оба инструмента позволяют генерировать бесчисленные варианты текста по введенной подсказке. Другими словами, каждый раз на выходе будет появляться совершенно новый текст. Итог Источник: partnerkin.com Комментарии: |
|