Хит-парад статей тысячелетия |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2026-01-29 17:13 В 2025 году Nature представил топ-25 самых цитируемых статей и препринтов за четверть века, собрав информацию из пяти наукометрических баз (WoS, Scopus и др.). Что это за публикации такие? Давайте разбираться. Возможно, вы разочаруетесь, но среди лидеров нет ни CRISPR, ни Генома человека, ни других нашумевших прорывов. Зато — тихое, но тотальное доминирование методов, особенно машинного и глубокого обучения. №1. Deep Residual Learning for Image Recognition В 2015 году ученые Microsoft во главе с Каймином Хэ представили новаторскую архитектуру ResNet, которая совершила революцию глубины нейросетей, преодолев проблему затухающих градиентов с помощью остаточных связей. До боли простая идея теперь повсюду — вплоть до ChatGPT. Оригинальный ResNet выиграл конкурс на датасете ImageNet, нарастив число слоев в ~7 раз по сравнению с предыдущими победителями. Сегодня файнтюнить ResNet под свои задачи с картинками — обыденная практика, вот кейс с распознаванием древней латыни. №6. Random Forests Статья 2001 года про удобный и понятный алгоритм — случайный лес, придуманный американским статистиком Лео Брейманом. Под RF подразумевается ансамбль множества деревьев решений, которые обучаются параллельно на сэмплах объектов и признаков. Потом их оценки агрегируются. Отличная иллюстрация пословицы «Одна голова хорошо, а две — лучше». №7. Attention is all you need Краеугольный труд для сферы обработки естественного языка от Ашиша Васвани и коллег из Google Brain датируется 2017 годом. Именно в ней описан «трансформер» — хребет нынешних LLM. Название перекликается с песней The Beatles. Сегодня трансформеры вошли и в биологию, например, обучают белковые языковые модели. Одну из них, ESM3, мы скоро отпрепарируем на вебинаре, не пропустите. №8. ImageNet classification with deep convolutional neural networks Работа 2012 года Крижевского, Суцкевера и Хинтона про культовый AlexNet. Первая сверточная нейронка, убедительно доказавшая превосходство глубокого обучения над другими подходами в компьютерном зрении. Точка отсчета эры дипленинга и бума GPU. Подробности. №12. U-Net: Convolutional Networks for Biomedical Image Segmentation U-Net — нейросеть, предложенная в 2015 году Олафом Роннебергером именно для биомедицины — сегментации клеток на микроскопических снимках. U-Net хватает малой выборки для тренировки. Ныне U-Net подобная архитектура лежит в основе диффузионных моделей для генерации картинок. №15. Scikit-learn: Machine learning in Python Публикация 15-летней давности про sklearn — популярную питонячную библиотеку для классического ML с уймой реализованных функций и алгоритмов. №16. Deep learning Обзор от сразу трех крестных отцов AI — Бенджио, Хинтона и ЛеКуна. Кстати, Хинтон в январе 2026 стал вторым ученым в истории, достигшим 1 млн цитирований! Что еще в топе? Биоинформатика и статистика. Например, №18 — статья о DESeq2, золотом стандарте для оценки диффэкспрессии. На последней строчке расположился инструмент G*Power для расчета статмощности. Чуть-чуть не дотянули до попадания в рейтинг SAMtools, Trimmomatic и Bowtie 2 (№27–29) Цитируемость намекает, что вычислительные методы и AI-модели очень востребованы. Их освоение выгодно превращает вас в мультидисциплинарных специалистов. В Бластим на занятиях по ML мы тоже опираемся на нетленные классические рукописи, но сразу практикуемся на примерах из лайфсаейнс. Источник: vk.com Комментарии: |
|