Хит-парад статей тысячелетия

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


В 2025 году Nature представил топ-25 самых цитируемых статей и препринтов за четверть века, собрав информацию из пяти наукометрических баз (WoS, Scopus и др.). Что это за публикации такие? Давайте разбираться.

Возможно, вы разочаруетесь, но среди лидеров нет ни CRISPR, ни Генома человека, ни других нашумевших прорывов. Зато — тихое, но тотальное доминирование методов, особенно машинного и глубокого обучения.

№1. Deep Residual Learning for Image Recognition

В 2015 году ученые Microsoft во главе с Каймином Хэ представили новаторскую архитектуру ResNet, которая совершила революцию глубины нейросетей, преодолев проблему затухающих градиентов с помощью остаточных связей. До боли простая идея теперь повсюду — вплоть до ChatGPT. Оригинальный ResNet выиграл конкурс на датасете ImageNet, нарастив число слоев в ~7 раз по сравнению с предыдущими победителями. Сегодня файнтюнить ResNet под свои задачи с картинками — обыденная практика, вот кейс с распознаванием древней латыни.

№6. Random Forests

Статья 2001 года про удобный и понятный алгоритм — случайный лес, придуманный американским статистиком Лео Брейманом. Под RF подразумевается ансамбль множества деревьев решений, которые обучаются параллельно на сэмплах объектов и признаков. Потом их оценки агрегируются. Отличная иллюстрация пословицы «Одна голова хорошо, а две — лучше».

№7. Attention is all you need

Краеугольный труд для сферы обработки естественного языка от Ашиша Васвани и коллег из Google Brain датируется 2017 годом. Именно в ней описан «трансформер» — хребет нынешних LLM. Название перекликается с песней The Beatles. Сегодня трансформеры вошли и в биологию, например, обучают белковые языковые модели. Одну из них, ESM3, мы скоро отпрепарируем на вебинаре, не пропустите.

№8. ImageNet classification with deep convolutional neural networks

Работа 2012 года Крижевского, Суцкевера и Хинтона про культовый AlexNet. Первая сверточная нейронка, убедительно доказавшая превосходство глубокого обучения над другими подходами в компьютерном зрении. Точка отсчета эры дипленинга и бума GPU. Подробности.

№12. U-Net: Convolutional Networks for Biomedical Image Segmentation

U-Net — нейросеть, предложенная в 2015 году Олафом Роннебергером именно для биомедицины — сегментации клеток на микроскопических снимках. U-Net хватает малой выборки для тренировки. Ныне U-Net подобная архитектура лежит в основе диффузионных моделей для генерации картинок.

№15. Scikit-learn: Machine learning in Python

Публикация 15-летней давности про sklearn — популярную питонячную библиотеку для классического ML с уймой реализованных функций и алгоритмов.

№16. Deep learning

Обзор от сразу трех крестных отцов AI — Бенджио, Хинтона и ЛеКуна. Кстати, Хинтон в январе 2026 стал вторым ученым в истории, достигшим 1 млн цитирований!

Что еще в топе? Биоинформатика и статистика. Например, №18 — статья о DESeq2, золотом стандарте для оценки диффэкспрессии. На последней строчке расположился инструмент G*Power для расчета статмощности. Чуть-чуть не дотянули до попадания в рейтинг SAMtools, Trimmomatic и Bowtie 2 (№27–29)

Цитируемость намекает, что вычислительные методы и AI-модели очень востребованы. Их освоение выгодно превращает вас в мультидисциплинарных специалистов.

В Бластим на занятиях по ML мы тоже опираемся на нетленные классические рукописи, но сразу практикуемся на примерах из лайфсаейнс.


Источник: vk.com

Комментарии: