ИИ «сходит с ума» после обучения на данных, сгенерированных не человеком

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Исследователи из Стэнфордского университета и Университета Райса обнаружили проблемы в генеративных моделях искусственного интеллекта, таких как знаменитые ChatGPT или Midjourney. Модели, обучаемые на данных, сгенерированных ИИ, будь то тексты или изображения, имеют тенденцию «сходить с ума» после пяти циклов обучения. 

Ухудшение качества результатов работы ИИ  при многократном обучении на данных, сгенерированных ИИ / © Stanford University / Rice University

Ухудшение качества результатов работы ИИ  при многократном обучении на данных, сгенерированных ИИ / © Stanford University / Rice University

 

Термин MAD (Model Autophagy Disorder), используемый исследователями, описывает процесс того, как качество результатов моделей ИИ деградирует при многократном обучении на данных, сгенерированных собственно ИИ: они «поедают сами себя».

 


Источник: naked-science.ru

Комментарии: