Может ли LLM-аудит экспертных заключений сделать систему поддержки научных грантов прозрачнее? |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-05-28 11:08 Может ли LLM-аудит экспертных заключений сделать систему поддержки научных грантов прозрачнее? Запускаем Инверсированный тест Тьюринга Дорогие друзья! Недавно мы столкнулись с ситуацией, когда эксперты Российского научного фонда (РНФ) отклонили нашу заявку по ментальным картам ("Лингвокогнитивный и нейросетевой анализ ментальных репрезентаций пространства "), предъявив претензии, ответы на которые явно содержались в самом тексте заявки и приложении к ней. Возник вопрос: насколько внимательно и объективно эксперты читают научные заявки? Чтобы разобраться, мы решили провести независимый LLM-аудит экспертных заключений, используя современные большие языковые модели (GPT-4.5, GPT-O3). Суть подхода: - Берём тексты заявки, приложений и экспертных заключений. LLM проводит независимый анализ и проверяет, действительно ли претензии экспертов обоснованы и соответствуют реальному содержанию заявки. - Получаем объективную оценку качества работы экспертов. Мы назвали этот подход Инверсированный тест Тьюринга (Reversed Turing Test): теперь не ИИ доказывает человеку свои компетенции, а эксперты демонстрируют, что их работа не хуже, чем у передовых языковых моделей. Сейчас мы напрямую давали задания LLM через чат, и получили документы с большим количеством общих выводов (оценка экспертиз совпадает), но различающиеся по формату, стилю подачи и степени детализации обсуждений. Что можно сделать дальше: - Использовать локализованные модели для повышения защищенности, точности и специфичности анализа. - Перейти к обращению через API с использованием промпт-инжиниринга, предварительно разработав стандартизированную систему оценок и формат вывода результатов. Это позволит проводить глубокий и объективный аудит работы всех экспертов на основе всех представленных экспертиз, что станет важным шагом в очищении науки от недобросовестных и корыстных экспертов. Готов лично возглавить рабочую группу по автоматизации LLM-аудита. Как автор методики и разработчик прототипа, могу собрать междисциплинарную команду (NLP-инженеры, лингвисты, методисты) и внедрить стандартизированный LLM-аудит в процессы научных фондов — от API-сервиса для загрузки рецензий до публичного дашборда качества экспертиз. Ну а сейчас результаты LLM-аудита: Экспертиза №1: неудовлетворительное качество (около 67 % фактических ошибок; поверхностное чтение текста заявки). Экспертиза №2: низкое качество (несколько корректных замечаний по числу информантов и привлечению когнитивного психолога, однако > 60 % тезисов не подтверждаются документально). Экспертиза №3: высокое качество (ключевые выводы полностью подтверждаются содержимым заявки; отмечен единственный обоснованный риск — усилить компетенцию по когнитивной психологии). Таким образом, результаты LLM-аудита подтверждают: — необоснованность большинства критических претензий в адрес Заявки; — высокое методологическое и эмпирическое качество самой Заявки; — вывод о необходимости усилить прозрачность и ответственность экспертной процедуры РНФ, пересмотрев рецензии с низким качеством аргументации. Что это значит: Необходимо улучшение системы экспертизы в научных фондах. LLM могут эффективно дополнять и контролировать человеческую экспертизу, обеспечивая прозрачность и объективность. Использование такого подхода позволяет бороться с предвзятостью и коррупцией при выделении грантов. Мы считаем, что этот вопрос заслуживает широкой общественной дискуссии! Мы загрузили в открытый доступ: - Текст заявки - Приложение к заявке - Тексты экспертиз - Результаты двух независимых LLM-аудитов (GPT-4.5 и GPT-O3) Ссылки на все документы доступны здесь: https://drive.google.com/drive/folders/1_zVyjkHAd1jeLQzJpLVDQztrjk9yhoSR Приглашаем Российский научный фонд, учёных, журналистов, Минобрнауки России, Российская академия наук | РАН, Российская академия образования, Научная Россия / Scientific Russia, СМИ2 - новостной агрегатор, Алексей Трапезников, Российская Газета и всех заинтересованных подключиться к обсуждению! Благодарю за репосты! Источник: support.google.com Комментарии: |
|