Supermicro kondigt de uitbreiding aan van zijn NVIDIA Blackwell-architectuurportfolio met de introductie en levering van nieuwe 4U en 2- OU (OCP) vloeistofgekoelde NVIDIA HGX B300-systemen. Deze nieuwste toevoegingen zijn een belangrijk onderdeel van Supermicro's Data Center Building Block Solutions (DCBBS) en bieden ongeëvenaarde GPU-dichtheid en energie-efficiëntie voor hyperscale datacenters en industriële AI-toepassingen.
“Nu de vraag naar AI-infrastructuur wereldwijd toeneemt, leveren onze nieuwe vloeistofgekoelde NVIDIA HGX B300-systemen de prestatiedichtheid en energie-efficiëntie die hyperscalers en industriële AI-implementaties vandaag de dag nodig hebben,” zegt Charles Liang, president en CEO van Supermicro. “We bieden nu de meest compacte NVIDIA HGX B300-oplossingen in de branche, met maximaal 144 GPU’s per rack. Dankzij onze bewezen technologie voor directe vloeistofkoeling wordt minder stroom verbruikt en zijn de koelingskosten lager. Met onze DCBBS stelt Supermicro klanten in staat AI op schaal in te zetten, met snellere time-to-market, maximale prestaties per watt en end-to-end integratie van ontwerp tot implementatie.”
Het 2-OU (OCP) vloeistofgekoelde NVIDIA HGX B300-systeem, gebouwd volgens de 21-inch OCP Open Rack V3-specificatie, levert maximale GPU-dichtheid met 144 GPU’s per rack. Het rack-schaalontwerp combineert modulaire GPU/CPU-lades, blind-mate connectoren en geavanceerde vloeistofkoeling om AI-workloads efficiënt te draaien, met acht NVIDIA Blackwell Ultra GPU’s per node en een lager stroomverbruik. Eén ORV3-rack ondersteunt tot 18 nodes, terwijl het systeem naadloos schaalbaar is met NVIDIA Quantum-X800 InfiniBand-switches en 1,8 MW in-row koelmiddeldistributie-eenheden van Supermicro. Acht rekenracks, drie netwerkracks en twee in-row CDU’s vormen samen een SuperCluster-schaaleenheid met in totaal 1.152 GPU’s.
Als aanvulling op het 2-OU (OCP) model biedt het 4U Front I/O HGX B300 vloeistofgekoelde systeem dezelfde rekenprestaties in een traditionele 19 inch EIA rack vormfactor voor grootschalige AI-fabrieksimplementaties. Het 4U-systeem maakt gebruik van Supermicro’s DLC-2 technologie om tot 98% van de door het systeem gegenereerde warmte1 op te vangen door middel van vloeistofkoeling. Dit resulteert in een superieure energie-efficiëntie met minder ruis en een grotere onderhoudsvriendelijkheid voor dichte trainings- en inferentieclusters.
Supermicro NVIDIA HGX B300-systemen laten belangrijke snelheidsverbeteringen zien. Met 2,1 TB HBM3e GPU-geheugen per systeem kunnen grotere modellen op systeemniveau worden verwerkt. Zowel de 2-OU (OCP) als de 4U-platforms leveren aanzienlijke prestatieverbeteringen op clusterniveau. Ze verdubbelen de compute fabric-netwerkdoorvoer tot 800 Gb/s via geïntegreerde NVIDIA ConnectX®-8 SuperNIC’s, wanneer ze worden gebruikt met NVIDIA Quantum-X800 InfiniBand of NVIDIA Spectrum-4 Ethernet. Deze verbeteringen versnellen zware AI-workloads, zoals agentic AI-toepassingen, foundation-modeltraining en multimodale grootschalige inferentie in AI-omgevingen.
Supermicro heeft deze platformen ontwikkeld om te voldoen aan de belangrijkste eisen van klanten op het gebied van TCO, onderhoudsvriendelijkheid en efficiëntie. Met de DLC-2 technologiestack kunnen datacenters tot 40 procent energie besparen1 en het waterverbruik verminderen door te werken met warm water van 45°C. Hierdoor kunnen koelwater en compressoren in datacenters worden geëlimineerd. Supermicro DCBBS levert de nieuwe systemen als volledig gevalideerde, geteste racks die klaar zijn voor verzending als L11- en L12-oplossingen. Dit versnelt de tijd om online te gaan voor hyperscale, enterprise en overheidsklanten.
Met de nieuwe systemen breidt Supermicro zijn brede portfolio van NVIDIA Blackwell-platforms uit, waaronder de NVIDIA GB300 NVL72, NVIDIA HGX B200 en NVIDIA RTX PRO 6000 Blackwell Server Edition. Elk van deze NVIDIA-gecertificeerde systemen van Supermicro is getest om optimale prestaties te waarborgen voor een breed scala aan AI-toepassingen en gebruiksgevallen. Daarnaast zijn ze gevalideerd samen met NVIDIA-netwerken en NVIDIA AI-software, waaronder NVIDIA AI Enterprise en NVIDIA Run:ai. Dit biedt klanten de flexibiliteit om een AI-infrastructuur te bouwen die schaalbaar is van een enkele node tot full-stack AI-fabrieken.
Meer lezen