De snelle opkomst van AI dwingt datacenters tot een herziening van de infrastructuur. Huidige koeling- en stroomvoorzieningen zijn niet altijd opgewassen tegen de toenemende vraag naar vermogensdichtheid. Vertiv en c komen nu met een referentiearchitectuur.
Deze architectuur moet datacenters voorbereiden op AI-intensieve toepassingen. De oplossing ondersteunt vermogensdichtheden tot 142 kW per rack met een nieuwe benadering van schaalbare infrastructuur. Het hart van deze samenwerking is het NVIDIA GB300 NVL72-platform: een AI-superstack voor het verwerken van grote hoeveelheden data. Vertiv ontwikkelde hiervoor een energiezuinige en flexibele infrastructuurarchitectuur voor stroom en koeling, inzetbaar als kant-en-klaar ontwerp. Via integratie in NVIDIA Omniverse als SimReady 3D-modellen, kunnen gebruikers een digital twin creëren van hun infrastructuur, optimaliseren en testen voorafgaand aan fysieke implementatie.
Deze aanpak met digital twins maakt realtime samenwerking mogelijk tussen IT-, facilitaire en engineeringteams. Bovendien zou het de doorlooptijd van ontwerp tot realisatie moeten verkorten, met minder risico’s en lagere kosten. Het concept past in de trend waarin digitale en fysieke werelden steeds meer in elkaar overvloeien, en waarin virtueel testen en valideren een essentieel onderdeel is geworden van de infrastructuurcyclus.
Antwoord op de AI-uitdaging
AI-workloads stellen datacenters voor nieuwe uitdagingen op het gebied van vermogensdichtheid, warmteontwikkeling en schaalbaarheid. De referentiearchitectuur van Vertiv speelt hierop in met vloeistofkoeling, hybride koelopties en een geoptimaliseerd energiepad dat een tot 70 procent hogere energie-efficiëntie zou moeten kunnen opleveren. Het systeem ondersteunt 800 VDC-architecturen en is schaalbaar tot racks van 1 MW of meer.
De toepassing van vloeistofkoeling is logisch omdat traditionele luchtkoeling bij zulke vermogens niet effectief genoeg meer is. Door direct-to-chip-koeling en andere vloeistoftechnologieën in te zetten wordt de warmte efficiënter afgevoerd. Handig is ook dat dit tegelijk ruimtewinst in het rack zelf oplevert. Dat maakt de oplossing energie-efficiënt, en volgens Vertiv ook compact en flexibel inzetbaar, zelfs in bestaande faciliteiten.
Samenwerking met visie
“We helpen klanten om hun AI-datacenters digitaal te optimaliseren vóór de eerste fysieke bouwstap,” zegt Scott Armul, Executive Vice President, Global Portfolio & Business Units, en die rol verantwoordelijk voor onder meer R&D. Dion Harris, Head of Data Center Product Marketing van NVIDIA, voegt toe: “Onze samenwerking brengt het beste van twee werelden samen: de AI-capaciteit van NVIDIA en de koel- en stroomexpertise van Vertiv.”
De twee bedrijven werken al langer samen aan infrastructuuroplossingen voor AI en high-performance computing (HPC). Hun gezamenlijke roadmap richt zich op het versnellen van innovatie en implementatie. Zo wordt er gewerkt aan nieuwe standaarden zoals 800 volt DC-architecturen die nodig zijn om toekomstige vermogensniveaus boven de 1 megawatt per rack te ondersteunen.
De referentiearchitectuur doet zijn best om ontwerpvrijheid met praktische toepasbaarheid te combineren. Het systeem is wereldwijd inzetbaar en wordt ondersteund door Vertivs internationale netwerk van servicetechnici, zegt de fabrikant. De modulaire opzet maakt het geschikt voor uiteenlopende toepassingen, van edge-omgevingen tot grootschalige AI-installaties. Voor colocatieproviders en hyperscale-operators is het ook een manier om sneller in te spelen op de toenemende vraag naar AI-capaciteit, zonder telkens opnieuw het wiel te hoeven uitvinden.
Duurzaamheid is daarbij een belangrijk aandachtspunt. Door het gebruik van hogere koelwatertemperaturen en efficiënte stroomconversie zou het energieverbruik aanzienlijk moeten worden teruggebracht. De oplossing kan daarmee aan zowel operationele als ecologische optimalisatie bijdragen, zodat organisaties strengere duurzaamheidscriteria aankunnen, en daarbij hun energie- en exploitatiekosten verlagen.
AI-infrastructuur als strategische factor
Infrastructuur wordt vaak beschouwd als een belemmering, maar kan juist een bepalende factor worden in AI-strategieën. Door de samenwerking met NVIDIA wil Vertiv zich positioneren als een partner in de transitie naar AI-gedreven IT-omgevingen. Voor datacenters die werken aan de integratie van nieuwe AI-workloads, kan deze aanpak een concreet startpunt bieden.
Met de referentiearchitectuur willen de bedrijven laten zien dat AI-ready infrastructuur een ontwikkeling is die nu al plaatsvindt, door het integreren van ontwerp en uitvoering, en technologieën die volgens beide bedrijven inspelen op de eisen van high-performance computing.
Via het gebruik van digitale tweelingen en simulaties wordt het mogelijk om al in een vroeg stadium de impact van ontwerpkeuzes te analyseren. Denk aan thermische prestaties, energieverbruik, of ruimtebeslag. Dat kan de voorspelbaarheid vergroten en maakt het onderbouwen van investeringen gemakkelijker.
De samenwerking tussen Vertiv en NVIDIA is volgens de bedrijven een voorbeeld van de trend dat de kloof tussen IT en facilitaire infrastructuur kleiner wordt. Integrale ontwerpen en gezamenlijke roadmaps creëren ruimte voor nieuwe manieren om datacenters op te zetten en om AI-ambities om te zetten in uitvoerbare infrastructuurprojecten.