Собираем сервер для инференса и работы с LLM |
||
|
МЕНЮ Главная страница Поиск Регистрация на сайте Помощь проекту Архив новостей ТЕМЫ Новости ИИ Голосовой помощник Разработка ИИГородские сумасшедшие ИИ в медицине ИИ проекты Искусственные нейросети Искусственный интеллект Слежка за людьми Угроза ИИ Атаки на ИИ Внедрение ИИИИ теория Компьютерные науки Машинное обуч. (Ошибки) Машинное обучение Машинный перевод Нейронные сети начинающим Психология ИИ Реализация ИИ Реализация нейросетей Создание беспилотных авто Трезво про ИИ Философия ИИ Big data Работа разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика
Генетические алгоритмы Капсульные нейросети Основы нейронных сетей Промпты. Генеративные запросы Распознавание лиц Распознавание образов Распознавание речи Творчество ИИ Техническое зрение Чат-боты Авторизация |
2025-11-07 12:32 Собираем сервер для инференса и работы с LLM. Внутри: H100, 2x AMD EPYC, плата Gigabyte MZ73. Это детальный обзор сборки сервера для ИИ, который подходит для работы с крупными языковыми моделями. Конфигурация включает два процессора AMD EPYC на плате Gigabyte MZ73 и мощную видеокарту NVIDIA H100. Мы демонстрируем весь процесс сборки, уделяя внимание организации охлаждения и кабель-менеджменту внутри корпуса. Цель — создать тихую, аккуратную, но очень производительную станцию для тяжелых AI-нагрузок, таких как обучение и инференс нейросетей. В финале видео мы запускаем DeepSeek локально, чтобы проверить, как эта связка компонентов справляется с современными моделями и задачами инференса. Источник: vk.com Комментарии: |
|