И целого интернета мало

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В июле 2024 года в Nature вышла статья британских и канадских специалистов по искусственному интеллекту, которые задались вопросом: что произойдет с обучением нейросетей, когда интернет заполонят тексты, написанные другими нейросетями (а ждать уже недолго)? Ученые проанализировали, как современные языковые модели генерируют тексты, если и учатся на таких же сгенерированных текстах — и пришли к неутешительным выводам: языковые модели ждет вырождение. Но действительно ли стоит бить тревогу по поводу будущего генеративного искусственного интеллекта?

От транзисторов к трансформерам

Попытка сделать человеческий язык объектом вычислительной математики — одна из первых задач инженеров и ученых после появления в середине XX века достаточно мощных транзисторных вычислителей. Виновата отчасти была и холодная война: и США, и СССР были нужны эффективные средства машинного перевода с языка потенциального противника. Так зародилась компьютерная лингвистика — область на стыке математики, лингвистики и компьютерного моделирования, задачей которой стало описать естественные языки с помощью математических языковых моделей.

Элементарная задача языковой модели довольно понятная — вычислить для данной последовательности слов вероятность следующего. Еще Клод Шэннон в 1950 году предлагал решать эту задачу статистическими методами, то есть представить язык в виде распределений вероятности на множестве всех возможных предложений. Эти вероятности можно представить в форме деревьев решений, n-грамм или нейросетей с различной архитектурой. Главная сложность любой из них — подобрать набор вероятностей, соответствующий большому живому языку. С точки зрения математики построение модели сводилось к задаче оптимизации некоторой очень многомерной функции. Ни компьютеры, ни люди-расчетчики в 1950-е не были способны это сделать.

Ситуация изменилась в 1980-х, когда вычислительная техника стала значительно мощнее. Теперь с помощью компьютера можно было оптимизировать набор вероятностей таким образом, чтобы он был намного ближе к распределениям в реальном тексте. Это повысило точность языковых моделей для разных задач обработки естественного языка, в первую очередь машинного перевода. Компьютерная лингвистика стала в этот момент одним из направлений машинного обучения (machine learning, ML).

Очередная революция языковых моделей случилась уже в 2010-е. Во-первых, к этому времени компьютеры стали достаточно мощными, чтобы на них можно было запускать достаточно большие нейросетевые модели (подробнее про то, как устроены нейросети, мы рассказывали в материале «Зоопарк алгоритмов»). Во-вторых, стали в большом количестве появляться новые архитектуры нейросетей, и в 2017 году Google Brain и Google Research в статье «Attention Is All You Need», представил самую важную из них для языковых моделей — трансформер.

Оказалось, что эта архитектура быстрее обучается, точнее работает и лучше масштабируется, чем ее предшественник — рекуррентные нейронные сети. В итоге к концу десятилетия почти все крупные сервисы для машинного перевода, например Google Translate, перешли на трансформеры.

Больше чем языковые модели

Лучше всего трансформеры подошли для задачи генерации текста, напоминающего тот, на котором они обучались. Поскольку трансформеры довольно легко масштабировать, стало возможно сильно увеличивать число параметров в генеративных моделях. А чем больше нейросеть и чем больше в ней параметров, тем лучше текст она может сгенерировать: то есть текст на выходе становится все больше похож на исходный — и по грамматике, и по стилю. Самые успешные на сегодня большие языковые модели (large language model, LLM) стали генерировать текст, который часто неотличим от естественного.

Число параметров в этих моделях (а это, например, Llama от Meta AI*, Claude от Anthropic и GPT от OpenAI) превышает миллиард, но эта граница довольно условная: в отдельный класс эти модели выделяют скорее по качественным признакам. Эти языковые модели большие в том числе и потому, что они чуть больше, чем просто инструмент работы с текстом.

Язык — это не просто семантическая система, которая работает по определенным правилам; его логическая структура отражает онтологическую структуру мира. Поэтому и большая языковая модель, обучаясь и подстраивая сотни миллионов параметров, усваивает вместе с языком некоторые закономерности окружающей действительности (в ML-среде даже говорят, что большая языковая модель через поиск причинно-следственных связей внутри языка может построить свою модель мира). Из-за этого у нее часто появляются незапланированные навыки, которым их не обучали, например способность решать математические задачи.

Но этот сконструированный мир языковой модели — формальность. Никакого настоящего знания о мире — о том, что имеет место для человека, у модели нет. Поэтому ее высказывания могут быть ошибочны, могут быть неточны, могут быть просто бессмысленны. Но чем больше и качественнее датасет, на котором модель училась языку, тем более осмысленным и точным будут предложения в ее тексте после обучения. Точнее будут решения в том числе и неязыковых задач.

В зависимости от конкретной задачи и области, в которой планируется использовать языковую модель, требования к обучающему датасету могут быть разными. Например, при обучении универсальной LLM важны полнота датасета (то есть насколько вся необходимая информация присутствует в наборе данных) и его однородность (то есть насколько одинаково в разных частях датасета представлены те или иные слова и их комбинации), а если мы адаптируем модель под конкретную узкоспециальную задачу, на первый план выходят отсутствие нерелевантных, «мусорных» данных и их корректность.

Качественные данные для обучения модели, то есть разнообразные, однородные, полные и чистые от мусора (баланс между этими свойствами может смещаться в зависимости от задачи), — необходимый компонент для успешного применения машинного обучения, хотя и не достаточный: без оптимальных алгоритмов и мощных вычислителей ничего не получится. Но так или иначе, любой языковой модели нужна проверка качества.

Как проверяют качество обученной языковой модели? ?

Качество модели оценивают уже по результатам ее работы — на соответствие сгенерированных ей высказываний миру человека, про который у модели нет никаких априорных знаний. Это делает человек с помощью разнообразных метрик, бенчмарков и субъективных оценок тестировщика. Языковые модели часто проверяют на знания, логическое мышление, понимание написанного и так далее, а также на способность решать конкретные задачи. Чем выше итоги проверки, тем более качественной считается модель.

Качество генеративных языковых моделей оценивают по тем текстам, которые они могут написать после обучения. В случае с машинным переводом или сжатым пересказом текстов оценка основывается на схожести с эталонными примерами, которые эксперты подбирают вручную. Правда на практике сравнение нескольких LLM может потребовать больших вычислительных мощностей и окажется слишком медленным. Вместо этого исследователи и инженеры используют различные внутренние метрики для оценки самих языковых моделей без учета конкретных задач. В этом случае качество модели не связано с качеством генерируемого ей текста напрямую, хотя, как показывает практика, между ними есть корреляция.

Золотые буквы

Оказалось, что заранее предсказать, на каких данных лучше учить модели, не всегда легко. А поскольку хорошие данные часто тяжело найти, то они в итоге стали «новым золотом».

В случае с большими языковыми моделями данные — это много-много текстов. Казалось бы, проблем с ними быть не должно: по некоторым подсчетам в мире почти 160 миллионов книг, многие из которых оцифрованы. Однако все не так просто, как кажется.

Во-первых, все книги разные по стилю, языку, характеру заложенных в них знаний, поэтому, если мы хотим, чтобы модель была хороша в определенной предметной области, нужна фильтрация. Во-вторых, книги, даже документальные, не содержат всех знаний о мире, многие — подвергаются цензуре. Кроме того, стиль обучающего корпуса текстов может не подходить для задачи модели: к примеру, не получится сделать хороший чат-бот, если обучать модель на художественной литературе.

Чтобы языковые модели владели актуальным языком с актуальными данными, их обучают не только на книгах, но и на корпусах текстов из интернета, которые собирают в отдельные датасеты. «Например, один из первых и самых популярных корпусов для систем обработки естественного языка и обучения больших языковых моделей — это , — рассказал N + 1 Елисей Рыков, инженер-исследователь Центра технологий искусственного интеллекта Сколтеха. — Он содержит множество самых разных страниц из интернета: региональные СМИ, рецепты еды, блоги, интернет-магазины, и тому подобное — все, что ежедневно создают и смотрят пользователи интернета».

В отличие от литературных корпусов, для датасетов из интернет-текстов всегда стоит вопрос отбора — среди страниц в сети огромное число текстов с ошибками разного характера. Поскольку CommonCrawl и подобные ему датасеты просто «пылесосят» интернет, то после этого данные с помощью незатейливых алгоритмов приходится фильтровать и исключать из корпуса страницы с бессмыслицей или техническими кодами. А, например, исследователи из OpenAI подошли к этому вопросу более творчески, когда обучали GPT-2 с 1,5 миллиарда параметров. Они собрали 40 гигабайт текста с восьми миллионов веб-страниц (для сравнения: в CommonCrawl на тот момент уже были петабайты данных и около 10 миллиардов страниц), найдя ссылки на них на Reddit. Авторы отбирали только те ссылки, посты с которыми получили не менее трех . По словам исследователей, применив такой эвристический индикатор, они собрали более качественный датасет, чем CommonCrawl текущей версии, хоть и значительно меньший по объему.

Стена данных

Начало 2020-х — время гонки между различными большими языковыми моделями, как открытыми, так и проприетарными. В этот период начался экстенсивный рост: масштабированию подвергалось как число параметров моделей, так и количество данных для обучения без существенных модификаций трансформерной архитектуры. Но довольно быстро у ученых стал «заканчиваться интернет»: большую часть доступных и подходящих для обучения текстов в датасеты уже включили, а новые в нужном для дальнейшего роста моделей количестве не появлялись.

Так, объем данных, использованных для обучения вышедшей в апреле 2024 года языковой модели Llama 3, составил 15 триллионов . Вместе с тем, объем свежей на тот момент версии CommonCrawl, на которой обычно обучают такие модели и по которой можно грубо оценить объем текстового интернета, после очистки корпуса от дублей составлял 30 триллионов токенов (хотя по другим оценкам сейчас проиндексировано 500 дедуплицированных триллионов токенов интернета). Это означает, в обучении LLM задействован почти весь открытый текстовый интернет.

Для более специализированных моделей, например, пишущих код, потолок уже достигнут: весь общедоступный код уже использован в обучении LLM и больше его взять негде. Леопольд Ашенбреннер, работавший ранее в OpenAI, оценивает объем текста всех публичных репозиториев на GitHub в несколько триллионов токенов и утверждает, что передовые модели уже обучены на большей части интернета. Эта проблема получила название стены данных (data wall). В эту стену в скором времени упрутся лаборатории, которые захотят получить еще более мощные языковые модели.

Проблему дефицита уникальных данных разработчики LLM предлагали решать самыми разными способами: повторно включать те же данные в обучающий датасет, использовать обучение с подкреплением, объединять текст с другими типами данных (звуком, изображениями, данными финансовых рынков и так далее), конвертировать данные из других областей или брать закрытые данные, например чаты в WhatsApp или неиндексируемые посты в Facebook*.

Но уже к 2023 году исследователи успели понять, что большинство этих методов не слишком эффективны: повторное включение тех же данных в обучающий датасет не приносит существенной пользы (раз, два) и плохо работает для нецелевых задач модели, а, например, мультимодальный подход — хоть и позволяет увеличить качество универсальных модели, но не кратно. Поэтому многие исследователи, в том числе и сам Ашенбреннер, сходятся во мнении, что наиболее перспективный путь обхода стены — учить модели на синтетических данных.

От соборов к зайцам

Но обучение языковых моделей на данных, сгенерированных такими же моделями, — тоже не очевидно беспроигрышный вариант. Один из на первый взгляд веских аргументов против такого подхода появился в июле 2024 года в Nature. Авторы, исследователи из Англии и Канады во главе с братьями Ильей и Захаром Шумайловыми, пришли к понятным, но не самым очевидным выводам: обучение на синтетических данных приводит к деградации языковых моделей, и на практике этот процесс неизбежен.

Несмотря на то, что препринт статьи вышел примерно за год до публикации в Nature, статья стала довольно резонансной: это было первое академическое исследование на тему обучения моделей на синтетических данных, представленное на столь высоком уровне. И в период бума языковых моделей результаты показались на первый взгляд довольно пессимистичными.

Но так ли неутешительны выводы исследователей?

На самом деле ученые доказали довольно понятную вещь: если обучить модель на каком-то наборе данных, а затем сгенерировать с ее помощью новые, то статистические свойства начального и конечного наборов будут отличаться. И если повторять обучение многократно, то эти отличия будут накапливаться, а модель будет эволюционировать.

Сначала авторы доказали это теоретически. При этом их вывод относился не только к LLM, но и к другим типам моделей с другими типами данных (например, изображений). Применительно к текстам статистические свойства описывают вероятности встретить тот или иной токен в корпусе — то есть информацию о любых грамматических и стилистических паттернах, которые должны улавливать LLM.

Ученые показали, что при многостадийном обучении модель начинает дискриминировать редкие события (например, определенное сочетание слов, букв или какой-либо иной текстовый паттерн) и повышает встречаемость типичных. В итоге вероятность этих редких событий (хвостов распределений) уменьшается на каждом шаге, стремясь в пределе к нулю.

Следовательно, если использовать только что синтезированные тексты в качестве обучающего датасета для еще не обученной копии той же модели, то качество генерации будет ухудшаться с каждым следующим поколением — нейросеть, согласно рассуждениям, должна в итоге порождать нерелевантные или бессмысленные результаты. Авторы назвали такую деградацию коллапсом модели. Коллапс чреват тем, что нейросеть перестанет улавливать нюансы.

Чтобы подтвердить свои выводы, ученые провели серию экспериментов. Для этого они подготовили датасет на основе статей из Википедии, написанных человеком, и обучили на нем небольшую опенсорсную LLM — включающую . На следующем шаге исследователи попросили сгенерировать корпус такого же объема, как изначальный, и повторили обучение исходной копии этой модели. А затем проделали эту процедуру еще несколько раз.

На каждом шаге авторы следили за тем, как у модели меняется распределение перплексии — одной из внутренних статистических метрик, по которой можно оценить качество модели. Оказалось, что коллапс, как и предсказывала теория, действительно имеет место, когда датасет полностью синтетический. Но если хотя бы десять процентов датасета остаются написанными человеком, этот эффект практически исчезает.

Что еще за перплексия? ?

Чтобы понять, хороша или плоха языковая модель, можно оценивать точность решения ею определенных задач или характеризовать статистические свойства генерируемых ею текстов. Другой, менее требовательный к вычислениям подход опирается на использование некоторой внутренней и универсальной метрики, оценивающей саму модель.

Перплексия — как раз подходящая статистическая метрика. В случае с языковыми моделями она измеряет то, насколько хорошо модель воспроизводит тексты с точки зрения вероятности встретить то или иное слово (точнее, токен) в предложении. Чем выше перплексия, там меньше разрыв в вероятности между самым вероятным токеном и его преследователями. То есть при большой перплексии модель менее «уверена» в своем выборе токена (отсюда и название). Принято считать, что чем ниже перплексия, тем выше качество модели.

Соответственно, искажения в распределении перплексии от поколения к поколению отражают изменения в статистический свойствах датасетов.

А можно поподробнее про эксперимент? ?

Экспериментальную проверку своей гипотезы ученые проводили с моделью OPT-125m от Meta* на стадии файнтюна (тонкой настройки) — то есть после того, как модель была заранее предобучена другими командами на больших корпусах (работать с предобученными моделями — обычная практика для подобных исследований). В качестве датасета «нулевого поколения», на котором учили изначальную модель, исследователи выбрали корпус wikitext2, состоящий из примерно ста миллионов токенов из избранных статей Википедии. Обучающие датасеты каждого следующего поколения — сгенерированные моделью корпуса текстов такого же размера, что и датасет нулевого поколения.

Для сравнительного анализа авторы проводили два типа экспериментов. В первом случае в качестве обучающего набора для модели следующего поколения брали датасет, полностью сгенерированный моделью с предыдущего шага. Во втором случае к 90 процентам сгенерированного текста добавляли 10 процентов из оригинальных текстов wikitext2. Каждый эксперимент проводился пять раз и включал в себя не менее 10 поколений, считая с нулевого.

В результате исследователи убедились, что по мере смены поколений распределение перплексии быстро менялось: мода уменьшалась, но при этом росли длинные хвосты. Появление в распределении этих хвостов и их рост означали, что модель в каждом следующем поколении все чаще оказывалась в состоянии с высокой неопределенностью, чего почти не было при обучении на оригинальном тексте. Из-за этого в каждом новом поколении скачками росло среднее значение перплексии (правда к последним поколениям выходило на плато). Эти скачки оказались характерны для обоих типов экспериментов, но если к обучающим датасетам примешивали естественный текст, они не были такими большими и едва выходили за пределы погрешностей.

Результаты эксперимента: сверху — только на сгенерированных данных, снизу — на данных с 10 процентами оригинального датасета. Слева показано изменение распределения перплексии от поколения к поколению, справа — средней перплексии и ее стандартного отклонения. Ilia Shumailov et al. / Nature, 2024.

За эволюцией модели авторы следили только по изменению ее внутренних метрик. Какого-то внешнего параметра, который характеризовал бы деградацию сгенерированных данных, ученые не использовали (по крайней мере не привели его в статье). Зато они проиллюстрировали коллапс модели примерами текстов, которые генерировали модели разных поколений.

Модель нулевого поколения, которая обучалась на датасете текстов из Википедии — то есть по сути на человеческих текстах, — генерировала свой датасет, который содержал довольно мало ошибок. Вот отрывок из текста, который написала модель нулевого поколения (пунктуация и орфография сохранены):

Исследователи пишут, что отрывок был сгенерирован под влиянием статьи на Википедии про здания в графстве Сомерсет. На самом деле тут есть хитрость: выдача модели нулевого поколения опирается, конечно, не на эту конкретную статью в Википедии, а на все сразу, а также на корпусы текстов, на которых предобучали модель перед тем, как с ней стала работать группа Шумайловых. Так или иначе, соответствие этого отрывка из сгенерированного текста и статьи на Википедии — довольно условное. Цель подобного сравнения — не проиллюстрировать искажение смысла, а дать читателям возможность оценить изменение качества текста.

Сравнивать содержание текста после девяти поколений обучения уже невозможно в принципе. Самый «похожий» на статью в Википедии про здания в Сомерсете кусок текста — полная тарабарщина:

Аналогичный эффект авторы получили не только с текстовыми моделями, но и на других архитектурах: вариационных автокодировщиках (Variational autoencoder, VAE) и моделях гауссовых смесей (Gaussian Mixture Model, GMM) — модели, которые часто применяют для генерации и классификации изображений соответственно.

Ученые уверяют (не приводя, правда, экспериментальных доказательств), что, если модель будет больше, а синтетические данные она получит еще на этапе предобучения, а не файнтюна, то коллапс будет еще более выраженным, чем они увидели на сравнительно небольшой модели. А это грозит серьезными проблемами в будущем, когда количество сайтов, наполненных синтетическими текстами, существенно превысит число обычных, «человеческих» текстов. При этом компании, которые успели обучить свои модели до этого момента, по мнению авторов исследования, могут получить «преимущество первопроходца»: их качество останется непревзойденным навсегда.

Не все то золото

Помимо журналистов самого Nature, исследованием в июле 2024 года заинтересовались крупные издания: The Financial Times, Forbes и Bloomberg. Эксперты и журналисты часто использовали сравнение деградации моделей с близкородственным скрещиванием у животных или инбридингом. Как и в ситуации с коллапсом ИИ-моделей, в таком потомстве резко уменьшается генетическое разнообразие, из-за чего накапливаются опасные мутации и снижается жизнеспособность.

Этот хайп, правда, к лету 2024 года уже успел несколько потерять актуальность. Еще в 2023 году, когда Шумайловы с коллегами опубликовали препринт статьи, о работе написали, например, TechTarget или Scientific American, а на момент написания этого текста на сам препринт сослались больше 200 раз. «Учитывая, что препринт статьи вышел на Arxiv.org год назад, публикацию в Nature можно считать несколько устаревшей, — считает Рыков. — Процесс публикации в хорошем рецензируемом журнале может затянуться, поэтому существуют сервисы типа Arxiv, которые позволяют „занять“ за собой место. Поэтому если и стоило бить тревогу, то уже как около года назад».

В течение всего 2023 года исследователи из других групп сообщали о похожем эффекте в моделях для рисования изображений: на базе генеративно-состязательных сетей (generative adversarial network, GAN) и диффузионных моделей (diffusion based models). А американские ученые обнаружили крайне высокую уязвимость к коллапсу у одной из самых популярных опенсорсных моделей Stable Diffusion: изображения начинают портиться, как только доля обучающего датасета, сгенерированного ИИ, становится больше всего трех процентов.

Но несмотря на то, что с этой проблемой ученые знакомы уже какое-то время, менее важной она не становится. Эксперты предсказывают, что к 2026 году до 90 процентов контента в интернете будет сгенерировано ИИ. Однако, например, научный сотрудник лаборатории Fusion Brain в Институте AIRI Антон Разжигаев в разговоре с N + 1 выразил сомнение в строгой необходимости именно «чистых» данных в интернете: «Ошибок, опечаток, неточностей и прочей „грязи“ в естественных текстах еще больше, чем в текстах, сгенерированных искусственным интеллектом — и для них уже есть методы фильтрации по источнику/дате/метаданным и тому подобному. Точно так же можно отслеживать и долю сгенерированного контента — не сказать, что это катастрофа».

Проблема, по сути, сводится к тому, чтобы научиться детектировать машинно-сгенерированный текст — тогда исключая его, можно оставлять искусственный текст только в том количестве, которое не портит потом выдачу модели. Но и создание такого детектора — пока предмет научной дискуссии. И хотя существует мнение, что это невозможно, каждый год появляются новые подходы к этой проблеме — некоторые из них менее успешные, какие-то (например, топология представлений данных) уже сейчас неплохо работают. А не так давно стало известно, что у OpenAI есть инструмент на основе технологии водяных знаков, в котором компания уверена на 99,9 процента, — пока, правда, разработчики опасаются запускать его на серверах и делать общедоступным.

Что значит «компания уверена»? ?

К цифре 99,9 процента, которую приводит The Wall Street Journal, стоит отнестись с осторожностью. В тексте статьи рядом с этой цифрой используются слова certainty (то есть уверенность или определенность) и effective (то есть эффективна). В машинном обучении используются другие метрики: accuracy, precision, recall, f-measure, у которых, в отличие от выражений из статьи в The Wall Street Journal, есть четкое математическое определение.

К одной из предыдущих версий такого детектора OpenAI уже открывала доступ, но из-за низкого качества его работы снова закрыла.

Но даже если создать идеальный детектор сгенерированного текста невозможно, это не станет проблемой. «В возможность создания достоверного детектора любых ИИ-текстов я не верю, — признается Разжигаев. — Но зато верю, что можно детектировать „низкокачественный“ сгенерированный текст, и поэтому какой-то генеративный мусор обнаружить получится. А то, что обнаружить не получится, — оно достаточно качественное, чтобы не портить обучение LLM».

Конечно, удаление из датасетов только самого низкокачественного сгенерированного текста не полностью спасает от искажения статистических распределений в новом тексте. Поэтому этот язык новых текстов будет статистически немного отличаться от живого языка книг и переписок. Но с другой стороны, это только отчасти проблема машинного обучения. Статистические метрики текста меняются и при автоисправлениях, и просто от смены узуса при перемещении коммуникаций в цифровое пространство (подробнее про то, как компьютерное общение повлияло на грамматику повседневного общения, читайте в материале «Точки мои точки.»). «Качество данных после повсеместного распространения доступных редакторов и спеллчеккеров только выросло, — резюмирует Разжигаев. — Размытие распределений — это важный вопрос, но уровень этой проблемы не настолько большой, чтобы переживать. Это просто новая реальность, исходя из которой нам придется работать».

Мало ли?

Иногда обучение языковых моделей именно на синтетических данных не просто не портит модель, а наоборот — приносит дополнительную пользу. Например, в эти данные не может случайно попасть конфиденциальная или чувствительная информация. Кроме того, используя в обучающем датасете сгенерированные тексты, можно менять «репрезентативность» данных, смещая баланс в ту или иную сторону. При этом искусственные тексты в датасете могут не дублировать естественные функционально, а дополнять их. Например, в диалоговых датасетах часто первые реплики человеческие — это могут быть реальные вопросы с форумов, — а ответы и прочие реплики уже дописывает модель.

Так или иначе, сейчас большую часть обучающих датасетов, на которых крупные компании дообучают современные модели, составляют именно сгенерированные искусственным интеллектом данные. Так делают и Meta AI*, выпустившая в июле 2024 года Llama 3.1, и Microsoft, которая в августе 2024 года представила Phi-3.5-vision. А использование текстов, написанных передовыми моделями, способно, в свою очередь, приблизить качество более дешевой модели к качеству дорогой проприетарной. В конце концов, даже по результатам исследований Шумайловых всего 10 процентов «человеческих» текстов сильно уменьшают деградацию, а это — вполне доступная цифра.

Поэтому говорить о том, что мир прикладного искусственного интеллекта ждут какие-то существенные изменения из-за массового перехода на синтетику, кажется, пока рановато.

* Facebook принадлежит компании Meta, деятельность которой в России запрещена.


Источник: nplus1.ru

Комментарии: