CoreWeave запускает сверхмощные серверы Blackwell от Nvidia при поддержке Dell

Стойки с 72 GPU и 36 CPU обеспечивают экзафлопсные мощности и до 13,5 ТБ GPU-памяти

CoreWeave, один из лидеров среди облачных провайдеров для ИИ, впервые внедрил в свои дата-центры серверные стойки Dell с новейшими чипами Nvidia Blackwell (GB200 NVL72), представив технологию высокой плотности вычислений для тренировки и вывода крупных языковых моделей.

CoreWeave использует специально разработанные для него жидкостно-охлаждаемые стойки Dell IR7000, основанные на серверах PowerEdge XE9712, оснащённые 72 GPU и 36 CPU архитектуры Grace Blackwell. Сеть NVLink и Quantum-2 InfiniBand объединяет GPU-блоки в единое сверхмощное решение — их производительность позволяет ускорить вывод LLM в реальном времени в 30 раз по сравнению с предыдущим поколением чипов.

Эта интеграция сделана особенно быстро: от заказа до установки прошло менее шести недель. CoreWeave отмечает, что подобное решение упрощает масштабирование инфраструктуры под нужды генеративного AI и помогает быстрее запускать проекты от OpenAI, Mistral, xAI и других.

CoreWeave запускает сверхмощные серверы Blackwell от Nvidia при поддержке Dell
Источник: Nvidia

Новые серверы Dell способны выдавать до 1,4 экзафлопс производительности на одну стойку и поддерживать большую плотность GPU-памяти — до 13,5 ТБ на стойку. Их жидкостное охлаждение снижает энергозатраты и облегчает установку из-за компактного форм-фактора 21 дюйм.

CoreWeave позиционирует себя как «AI-гиперскейлер», ориентированный исключительно на GPU-инфраструктуру, и активно расширяет присутствие: к концу года ожидается 20 дата-центров, включая новые площадки в Европе. Недавно компания вышла на IPO и привлекла значимые инвестиции от Nvidia, Microsoft, Cisco и Pure Storage.

Для Dell это стратегически важная сделка — она помогает закрепиться на рынке AI-инфраструктуры. Компания уже заявила, что её AI-ориентированные сервера принесут $15 млрд дохода в этом году, а поставки чипов Blackwell компанией CoreWeave отмечены в финансовых отчетах Nvidia.

Коллаборация меняет подход к AI-инфраструктуре: теперь крупные языковые модели можно запускать в облаке с высокой плотностью GPU при экономии энергии и времени развёртывания. Это важный шаг в сторону специализированных облаков для AI, предлагающих альтернативу гигантам вроде AWS и Google Cloud.

4 июля 2025 в 10:13

Автор:

| Источник: cnbc.com, blogs.nvidia.com

Все новости за сегодня

Календарь

июль
Пн
Вт
Ср
Чт
Пт
Сб
Вс
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31