Välkommen till det första blogginlägget i vår nya serie, Att bygga efter behov i en AI-värld. På EdgeConneX är det en del av vårt arv att bygga datacenter som passar unika kundspecifikationer är en del av vårt arv; vi har gjort det sedan 2009. Under dessa år har våra kunders specifikationer förändrats – mycket. I takt med att molnmigreringen accelererade behövde leverantörerna betydligt större anläggningar på strategiska platser. När konsumenterna övergick till streaming behövde leverantörerna installationer i utkanten. Vi har stöttat våra kunder genom var och en av dessa förändringar.
Artificiell intelligens (AI) har återigen ställt nya krav. Att bygga anläggningar anpassade för AI-arbetsbelastningar skiljer sig avsevärt från att bygga för molnbaserade arbetsbelastningar eller innehållsströmning. Kraven på placering, tidpunkt och täthet är helt annorlunda när det gäller AI. I den här serien kommer vi att gå igenom var och en av dessa aspekter i tur och ordning och förklara vad som har förändrats med AI, hur dessa förändringar påverkar utvecklingen av datacenter och hur EdgeConneX fortsätter att tillgodose kundernas unika specifikationer.
Platskrav för träning och inferens av AI-modeller
Kraften hos en AI-modell beror på antalet parametrar som används under träningen. Modellerna tränas på kluster av sammankopplade grafikprocessorer (GPU:er), och i takt med att antalet parametrar ökar växer även klustrets storlek. (Metas Llama 3.1har till exempel 405 miljarder parametrar och tränades med hjälp av ett kluster bestående av 16 000 NVIDIA H100-GPU:er. Företagets nästa generationsmodell, Llama 4, har 2 biljoner parametrar och tränas på ett kluster med över 100 000 H100-GPU:er.)
Större GPU-kluster medför ökade krav på strömförsörjning och utrymme i datacenter. Den globala efterfrågan på datacenterkapacitet uppgår idag till cirka 60 GW; år 2030 kan den vara 3–5 gånger så stor, och en betydande del av ökningen beror på AI. Datacenteranläggningar på flera miljoner kvadratmeter blir allt vanligare. Den typen av energi och utrymme blir allt svårare att få tag på i de primära marknaderna, så teknikföretagen som tränar AI-modeller söker sig till nya marknader för att få lättare tillgång till mark och energi.
AI-inferens (där den tränade modellen används för att bearbeta nya indata och generera utdata) ställer andra krav. För vissa tillämpningar, såsom självkörande fordon, högfrekvenshandel och industriell automatisering, kan inferens kräva låg latens. I sådana fall kan det vara nödvändigt med edge-implementeringar.
Byggnad anpassad efter platsens krav
För att kunna uppfylla kraven på el och mark i samband med träning av AI-modeller krävs ett starkt fastighetsteam med erfarenhet av att etablera sig på nya marknader. Med installationer i Över 60 unika marknader över hela världen har vi den erfarenhet och expertis som krävs för att lyckas på en mängd olika platser. Som vår marknads- och produktchef Phillip Marangella förklaras i en artikel om att tillhandahålla kapacitet där kunderna behöver det: ”Det är viktigt att inse vad olika marknader har gemensamt och hur de kan skilja sig åt… Även om det kan finnas många gemensamma lösningar mellan olika marknader, finns det ett enormt värde i att veta hur man uppnår resultat på olika platser, i olika kulturer och samhällen.”
För att kunna hantera installationer av olika storlek och på olika platser krävs en flexibel leveranskedja. Vår erfarenhet och expertis spänner över en rad olika utvecklingsstorlekar och -typer. Vi driver edge-implementeringar i storleksordningen ~2 MW samt hyperscale-implementeringar i storleksordningen 200+ MW. Vi bygger helt nya lösningar, omvandlar befintliga anläggningar eller ingår partnerskap där det behövs för att påskynda inträdet på nya marknader världen över. Vår pålitliga leveranskedja möjliggör snabb inköp globalt, vilket eliminerar logistiska utmaningar som vanligtvis förknippas med svåråtkomliga regioner. Vi utnyttjar en flexibel Basis of Design-strategi för att identifiera, utvärdera och genomföra projekt världen över med de bästa designmetoderna, partnerna och tekniken.
Sammanfattning
Oavsett om det gäller modellträning eller inferens driver de unika kraven inom AI-arbetsbelastningar på en betydande utveckling på nya marknader, liksom nya framsteg inom edge computing. För att lyckas krävs en leverantör med gedigen global erfarenhet av olika typer och storlekar av driftslösningar, en dynamisk leveranskedja samt ett engagemang för hållbarhet även där det är svårare. En leverantör som EdgeConneX.
Nästa steg i Anpassa byggandet till en AI-värld :