Прорыв в архитектуре: Rubin Ultra с 1 ТБ памяти
В понедельник компания NVIDIA сделала знаковое заявление, представив новую итерацию платформы для центров обработки данных — специализированное tray-решение под кодовым названием Rubin Ultra. Этот анонс, ставший продолжением объявленной ранее дорожной карты, знаменует собой значительный шаг вперед в области ускорителей искусственного интеллекта. Ключевой особенностью нового чипа стала беспрецедентная для отрасли емкость памяти: Rubin Ultra оснащен впечатляющим объемом в 1 терабайт (ТБ) быстрой памяти типа HBM4E.
Этот показатель делает Rubin Ultra первым в индустрии ИИ-ускорителем, достигшим терабайтного барьера по объему памяти на одном чипе или модуле. Архитектурно Rubin Ultra базируется на использовании четырех вычислительных чиплет (compute chiplets), что является частью стратегии NVIDIA по максимизации плотности вычислений и пропускной способности.
Хотя NVIDIA уже анонсировала семейство Rubin, выход которого ожидается во второй половине 2026 года и которое будет использовать память HBM4, именно версия Ultra, ориентированная на более требовательные задачи, получила новейшую память HBM4E и анонсирована с прицелом на 2027 год. Таким образом, компания продолжает придерживаться ускоренного цикла обновления своих ИИ-платформ, выпуская новую архитектуру практически ежегодно.
Интеграция в новую инфраструктуру Kyber
Новый ускоритель Rubin Ultra не существует изолированно; он спроектирован для работы в рамках следующего поколения стоечных (rack-scale) архитектур NVIDIA, получивших название Kyber. Платформа Kyber представляет собой радикальный пересмотр компоновки серверных систем для максимальной эффективности.
В отличие от предыдущих поколений, например, NVL72, стойки Kyber используют вертикальное размещение tray-модулей, а также по умолчанию переходят на жидкостное охлаждение. Это необходимо для эффективного отвода тепла от столь плотно скомпонованных и мощных вычислительных блоков. Система Kyber NVL144, в которую будет интегрироваться Rubin Ultra, сможет вместить 144 GPU-пакета, что, по заявлению компании, обеспечит как минимум четырехкратный прирост производительности по сравнению с предыдущими флагманскими решениями.
Примечательной деталью является минимизация количества кабелей в самом tray-модуле Rubin Ultra. Это упрощает сборку серверов, но также может указывать на смещение акцента NVIDIA в сторону продажи готовых, интегрированных модулей, оставляя партнерам задачу по составлению уже готовых стоек.
Значение терабайтной памяти для ИИ-моделей
Увеличение емкости памяти до 1 ТБ на ускоритель является прямым ответом на экспоненциальный рост размеров современных больших языковых моделей (LLM) и других сложных систем искусственного интеллекта. В задачах, связанных с обучением и инференсом (выводом) таких моделей, объем и пропускная способность памяти часто становятся главным «бутылочным горлышком» производительности.
Наличие терабайта быстрой памяти HBM4E позволяет загружать значительно большие объемы данных и весов моделей непосредственно в локальную память ускорителя. Это устраняет задержки, связанные с постоянным обменом данными с более медленными, хоть и объёмными, внешними хранилищами, что критически важно для сокращения времени обучения и повышения скорости отклика систем.
Производители памяти, такие как Samsung, уже демонстрируют решения HBM4E, спроектированные специально под такие платформы. Например, стек HBM4E от Samsung может достигать 48 ГБ при 16 слоях и скорости 16 Гбит/с на контакт, что напрямую влияет на общую пропускную способность всей системы Rubin Ultra.
Эволюция экосистемы и межсоединений
Платформа Rubin Ultra также несет обновления в области сетевых технологий и межсоединений. В стойках Kyber будет внедрен NVLink седьмого поколения. Этот новый стандарт сохраняет высокую скорость межсоединений на уровне 3600 ГБ/с, но, вероятно, оптимизирован для лучшего масштабирования между большим количеством GPU-пакетов.
Кроме того, анонсированы обновления в области сетевых карт, включая Ethernet-процессор CX9-1600G, предназначенный для ускорения распределенных вычислений (scale-out). NVIDIA также демонстрирует стремление к развитию форматов вычислений: ожидается, что в паре с Rubin Ultra будет работать LPU (Language Processing Unit) нового поколения от Groq, который получит поддержку формата данных NVFP4, предложенного NVIDIA, что указывает на фокус не только на аппаратном, но и на программно-алгоритмическом ускорении.
В более широком контексте, компания, по словам генерального директора Дженсена Хуанга, видит огромный потенциал на рынке: совокупный портфель заказов на платформы Blackwell и Vera Rubin к концу 2027 года, по прогнозам, может достичь внушительной отметки в 1 триллион долларов, что вдвое превышает более ранние прогнозы.
Дорожная карта и рыночное значение
Презентация Rubin Ultra, запланированного к выпуску в 2027 году, вписывается в амбициозную, но последовательную годовую стратегию NVIDIA по обновлению ИИ-архитектур, следуя за базовой платформой Rubin (2026 год) и предшествующим Blackwell Ultra (2025 год).
Такой темп разработки позволяет компании не просто поддерживать лидерство, но и активно формировать требования к следующему поколению ИИ-инфраструктуры. В перспективе, системы на базе Rubin Ultra в конфигурации NVL576 потенциально смогут объединять до 576 GPU и более 12 000 ядер CPU в единый кластер, демонстрируя суммарную производительность до 15 экзафлопс (в формате FP4) и пропускную способность межсоединений до 1,5 ПБ/с. Эти цифры подчеркивают, что Rubin Ultra — это не просто обновление, а фундаментальная платформа для решения задач ИИ завтрашнего дня.











Следите за новостями на других платформах: