ICML запретила учёным представлять статьи, созданные с помощью больших языковых моделей

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Международная конференция по машинному обучению (ICML) заявила о запрете учёным представлять статьи, созданные с помощью больших языковых моделей (LLM), например, ChatGPT. 

Как говориться в разъяснении по поводу запрета, документы, содержащие сгенерированный текст, будут запрещены, однако, если созданный текст является частью экспериментального анализа статьи, то он может быть использован. Также учёным разрешено использовать ИИ для корректировки своего текста, для улучшения его стиля и грамматики. 

Однако эти правила не имеют юридической силы и вполне возможно, что они будут меняться в будущем. Поэтому будут ли учёные придерживаться правил или нет теперь зависит от них самих. Кроме того, на данный момент нет инструментов, эффективно обнаруживающих сгенерированный текст. ICML будет полагаться только на людей, отмечающих подозрительные документы в процессе проверки. 

Сам сгенерированный текст часто содержит фактические ошибки, для чего авторам придется внести в него существенные правки, поэтому текст может не вызвать подозрений у принимающих. 

Ранее департамент образования Нью-Йорка запретил школьникам и учителям доступ к чат-боту ChatGPT в сетях и на устройствах государственных школ города. Отдельные школы могут запросить доступ к ChatGPT для изучения ИИ.


Источник: habr.com

Комментарии: