Что умеет самый находчивый искусственный интеллект в мире |
||
МЕНЮ Искусственный интеллект Поиск Регистрация на сайте Помощь проекту ТЕМЫ Новости ИИ Искусственный интеллект Разработка ИИГолосовой помощник Городские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Слежка за людьми Угроза ИИ ИИ теория Внедрение ИИКомпьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Распознавание лиц Распознавание образов Распознавание речи Техническое зрение Чат-боты Авторизация |
2020-06-10 12:05 Компания OpenAI представила новый алгоритм написания текстов GPT-3. Он умеет писать стихи и новости, делать переводы, разгадывать анаграммы и отвечать на вопросы. Для того, чтобы научить этому искусственный интеллект, потребовалось 570 гигабайт текста. Рассказываем, как обучали и тестировали самый находчивый на данный момент алгоритм. OpenAI VentureBeat OpenAI отчиталась о результатах тестирования алгоритма написания текстов GPT-3. Он повторяет предыдущую версию, GPT-2, на архитектуре Transformer, которая позволяет обучать алгоритм, увеличивая спектр задач, с которыми он справляется при распознавании текста. Архитектура включает в десять раз больше параметров, на которых проводилось обучение – 175 млрд. Средняя точность выполнения заданий составила 60%. В России для совершенствования подобных решений открыт технологический конкурс Up Great ПРО//ЧТЕНИЕ, организованный РВК, Фондом «Сколково» и АСИ.
Но если учить алгоритм отгадывать кроссворды на соответствующем массиве данных, он не сможет писать стихи. Чтобы научить алгоритм распознавать текст, независимо от задачи, используют предварительное обучение языковым образам с помощью наслаивания родственных по смыслу групп слов, и дальнейшего применения для широкого круга задач. Разработчикам GPT-3 частично удалось преодолеть зависимость от контекста, обучая алгоритм на большом объеме данных. Как учили GPT-3 Для обучения алгоритма сформировали набор очищенных данных, подходящих для обработки машиной. В этот массив вошли данные проекта Common Crawl, вся Википедия, два датасета с книгами и вторая версия датасета WebText: в нем были тексты с сайтов, страницы которых были отмечены пользователями, как полезные по контенту. Вычислительные ресурсы, потраченные на обучение разных вариантов нейросетей BERT, T-5, GPT-3 в петафлопс/секунда-днях на логарифмической шкале. Полный вариант GPT-3 превосходит все другие варианты в 10 раз по количеству потраченных вычислительных ресурсов OpenAI Чтобы оценить зависимость производительности от размера модели, GPT-3 обучали на восьми объемах параметров, которые зависели от количества слоев данных. В самом маленьком было 125 млн параметров, в финальном — 175 млрд. Все задачи решались с тремя условиями: обучение с одним примером (one-shot learning), обучение с несколькими примерами (few-shot learning) и без примеров (zero-shot learning). Как тестировали GPT-3 Обученный алгоритм тестировали на традиционных задачах моделирования языка. Вот некоторые из них: Lambada Подход моделирования зависимости: алгоритму ставят задачу предсказать последнее слово в предложении на основе контекста параграфа. Есть предположение, что масштабирование модели приводит к ухудшению результата в зависимости от проделанной им работы. Но авторы GPT-3 находят подход перспективным, потому что он обеспечивает гибкость обучения алгоритма.
HellaSwag В этом наборе алгоритм должен выбрать наилучший из возможных вариантов окончаний для истории. Варианты предварительно тщательно изучены, чтобы быть одновременно трудными для языковых моделей, но оставаться легкими для людей, то есть очевидными на 95,6%. GPT-3, обучаясь на HellaSwag, показывает точность в ответах в среднем 75,4%. Winograd-Style Tasks Схема Винограда, названная в честь Терри Винограда, профессора компьютерных наук в Стэнфордском университете. В ней алгоритму ставят задачу определить, к какому слову относится местоимение. Местоимение неоднозначно по смыслу для машины, но абсолютно понятно для человека. Например, ответить на вопрос: «Приз не влезает в коричневый чемодан, потому что он большой. Что имеется в виду под «он»?» Word Scrambling and Manipulation Tasks Чтобы проверить способность алгоритма усваивать новые символические манипуляции , авторы разработали стратегию , состоящую из нескольких задач. Каждое задание требует исправить слово, искаженное комбинациями смешивания, например:
Для каждой задачи было сгенерировано 10 000 вариантов самых популярных слов, длиной более 4 символов, но менее 15 символов. News Article Generation Предыдущий алгоритм (GPT-2) был обучен создавать «новостные статьи», получив написанное человеком вступление, и выбирая предложения для итогового материала. Набор данных для обучения GPT-3 хуже подходит для новостных статей, поэтому попытка создавать с его помощью новостные статьи менее эффективна. Новостная статья, написанная GPT-3, которая больше всего похожа на текст, написанный человеком OpenAI Какой будет следующая GPT? Средняя точность решений самой объемной и продвинутой модели, которую обучали на 175 млрд параметров, составила по всем заданиям 60%. Несмотря на прогресс и написание статей, которые трудно отличить от написанных человеком, остаются наборы данных, при работе с которыми GPT-3 испытывает затруднения. Юрий Молодых Директор по развитию технологических конкурсов Up Great Огромный шаг вперед, который показала команда OpenAI, послужит основой для многих десятков новых работ и в какой-то степени задаст повестку развития NLP-систем на ближайшие полгода-год. Однако нельзя не отметить, что этот трансформер создан вложением колоссальных ресурсов Microsoft, проинвестировавшей 1 млрд долларов в форме мощностей отдельного вычислительного центра, отданного под нужды OpenAI. По некоторым оценкам, стоимость электричества и эксплуатации вычислителей для обучения GPT-3 составила около 12 миллионов долларов — и это не считая времени специалистов; одна только аренда оборудования стоит колоссальных денег. При этом, мы видим, что на некоторых задачах оно работает не лучше GPT-2. Из этого можно сделать несколько выводов: 1. Задача создания универсального языкового движка пока что не решается только вливанием денег. Существующие методы не позволяют на одной лишь обучающей выборке огромного размера получить ключ к пониманию естественного языка машиной. Создать обучающую выборку в 100 раз больше этой и обучить на ней нейросеть вряд ли практически возможно в ближайшей перспективе. 2. Сообщество Data Science нуждается в новых методах машинного обучения, которые будут способны получить интересный результат на датасете меньшего размера. Это хорошо подтверждается тезисом Яна Лекуна, лауреата премии Тьюринга, который в феврале этого года формулировал три основных проблемы перед сообществом: обучение на данных меньшего размера, обучение рассуждать (т.е. логике: индукция, дедукция и т.п.) и предсказание последствий. 3. В ближайшей перспективе действительно интересные решения в области NLP возможны либо по очень узким задачам, либо игрокам большого размера, которые могут вложить десятки и сотни миллионов долларов в обучение одной нейросети. В этой связи для небольших игроков все большее значение приобретают такие проекты, как OpenCog, которые нацелены на создание открытых систем, обеспечивающих кооперативную разработку решений. Мы надеемся, что наш конкурс ПРО//ЧТЕНИЕ сможет стать точкой обмена опытом и технологиями для российских команд и подстегнет развитие области NLU (natural language understanding, понимание естественного языка) в России. Бонус Стихотворение, написанное GPT-3 в стиле американского поэта Уоллеса Стивенса. Для «вдохновения» алгоритм получил лишь название будущего произведения: «Shadows on the way»
Прием заявок на конкурс Up Great ПРО//ЧТЕНИЕ открыт на официальном сайте.
Источник: tjournal.ru Комментарии: |
|