L’impatto dirompente dell’intelligenza artificiale sta facendo sentire i suoi effetti anche sul mondo dei data center, che devono essere potenziati, se non proprio riprogettati, per riuscite a gestire questo tipo di elaborazioni. I chip utilizzati per effettuare questi calcoli sono particolarmente assetati di energia e, di conseguenza, servono soluzioni più efficienti per raffreddarli in maniera adeguata. Come ci spiega Antonio Racioppoli, Data Center Solution Architect - Cloud & Service Providers di Schneider Electric, l’IA porta con sé due tipi di carichi di lavoro: quelli di training, necessari per addestrare i LLM, e quelli di inferenza, cioè le operazioni che si basano sui modelli di intelligenza artificiale per dare risposte a domande specifiche. I primi “richiedono una capacità computazionale particolarmente spinta e portano all’estremo i requisiti dei data center tradizionali”, spiega il manager. I carichi di lavoro di inferenza, invece, sono più simili a quelli tradizionali, per quanto riguarda le esigenze computazionali, ma è necessaria una maggiore affidabilità. “I workload di training possono ripartire in caso di interruzione del servizio, senza un impatto sull’applicazione”. Quelli di inferenza, invece, sono più delicati sotto questo profilo: sono quelli che forniscono le risposte alle domande degli utenti, o che gestiscono le automazioni, e l’affidabilità risulta quindi molto più importante. “Per un algoritmo di inferenza poi è molto importante la latenza”, in quanto questi sistemi possono essere chiamati a prendere decisioni in tempo reale, per esempio nel caso delle automazioni Come abbiamo spiegato qui, i carichi di lavoro di IA stanno modificando i requisiti dei data center, in particolare quelli energetici e di raffreddamento. In pratica, serve più energia per alimentarli, che di conseguenza sprigionerà maggior calore, che va tenuto sotto controllo. Secondo Racioppoli, le infrastrutture dove vengono effettuati gli addestramenti dei modelli di IA “devono rispondere alla sfida della distribuzione elettrica”, perché le densità dei cluster di GPU sono ben superiori a quelle che si trovano nei data center “tradizionali”. All’atto pratico, se si progetta un data center per un’infrastruttura di IA “bisogna rivedere il dimensionamento dei blocchi di distribuzione tradizionali, le tecnologie legate al raffreddamento e i sistemi utilizzati all’interno degli armadi informatici per portare l’energia elettrica”. E non è finita qui, perché anche i criteri di progettazione vanno rivisti per rispondere a queste sfide. Per quanto riguarda i centri di calcolo dedicati all’inferenza, invece, i criteri di progettazione non si discostano moltissimo da quelli attualmente in uso. “Si utilizzeranno gli stessi standard per garantire l’affidabilità, e i sistemi di distribuzione elettrica e raffreddamento saranno più vicini a quelli che conosciamo da tempo”. Il focus, in questo caso, sarà sulla latenza, e di conseguenza i data center per l’inferenza verranno realizzati in zone vicine a dove i dati vengono effettivamente utilizzati. Fatto che, secondo il manager, porterà a una grande diffusione dei data center edge. La metà dei nuovi data center si cui gireranno algoritmi di IA, infatti, sarà di tipo edge nell’arco di pochi anni. Uno degli aspetti più critici è quello del raffreddamento dei cluster dedicati all’IA. Se aumenta la densità e la potenza di calcolo di ogni singolo nodo, inevitabilmente cresce anche la quantità di calore da smaltire. Il risultato? “I sistemi di raffreddamento ad aria non saranno più sufficienti e dovremo pensare a sistemi a liquido”. Anche per questo motivo Schneider Electric ha sviluppato una serie di linee guida dedicate a chi deve costruire e gestire i nuovi data center. Alcune di queste sono focalizzate su come portare l’alimentazione elettrica dagli armadi a questi cluster. E questo significa che in Paesi come gli USA i voltaggi tradizionali potrebbero essere non più sufficienti, dal momento che “si porterebbero dietro amperaggi troppo elevati. Andrebbe quindi rivista la tensione di alimentazione di questi apparati”. In Europa, invece, dove si usa la corrente a 220/230 Volt, il problema è meno sentito. Ma va rivista anche la dimensione dei blocchi di distribuzione tradizionali, perché si passa da una densità media per rack di 10/20 kW a una nell’ordine dei 100 kW. E andrà ripensata la distribuzione delle Power Distribution Unit all’interno degli armadi informatici. C’è anche una sfida importante dal punto di vita degli archi elettrici, che con le tensioni utilizzate potrebbero essere più frequenti, fatto che rappresenta un rischio per la sicurezza. “La vera sfida è cercare di indirizzare tutte questi elementi di complessità a 360°”, conclude Racioppoli. “Guardare agli impatti a livello olistico sull’infrastruttura. E non sottovalutare alcuno di questi elementi critici quando si progetta un’infrastruttura dedicata all’IA”. Nel marzo 2024, Schneider ha siglato un accordo di collaborazione con NVIDIA, quello che forse è il principale attore nel mondo dell'IA, almeno dal punto di vista dell'hardware. Sono proprio i chip dell'azienda di Jensen Huang i più ricercati e utilizzati per gestire i carichi di lavoro di addestramento e di inferenza IA. Chip che consumano, e di conseguenza scaldano, molto più di quelli tradizionali. La collaborazione fra le due aziende mira a ridefinire i parametri di riferimento dei data center così da potere sia gestire efficacemente la quantità di elettricità richiesta, sia smaltire il calore generato.La partnershippermetterà di offrire ai proprietari e agli operatori dei data center gli strumenti e le risorse necessarie a integrare agevolmente all'interno delle proprie infrastrutture le soluzioni di intelligenza artificiale.Come va concepito un data center per workload di IA?
Il tema del raffreddamento
La partnership con NVIDIA
Schneider Electric: così l'IA sta cambiando il modo di progettare i data center (2024)
Table of Contents
Come va concepito un data center per workload di IA?
Il tema del raffreddamento
La partnership con NVIDIA
References
References
Top Articles
Craigslist San Fernando Valley Rooms For Rent
Motel Scottish Inns Albany, USA - www.trivago.co.uk
Dog Gone Resort
Verity Or Falsity Of A Proposition Crossword Clue
Bloxburg Codes For Hair / Roblox Welcome To Bloxburg Hair Codes List Pro Game Guides : Welcome to bloxburg is arguably one of the most visited games on roblox.
2024 Ford Mustang EcoBoost Premium in Bowie, TX | Fort Worth Ford Mustang | Lipscomb Dealerships
EOD | ARENA | PVE | FULL EMAIL ACCESS | GLOBAL | 100 MILLIONS | 2... | ID 212407194 | PlayerAuctions
How Often Does Escape From Tarkov Wipe?
Renzo Olivo Flashscore
July 2020 – Fotis Georgiadis
Jayshree Gaikwad Web Series Watch All Episodes Online » Actress Web Series List
Jayshree Gaikwad Web Series Wiki, Ullu, Biography, Age, Height & Boyfriend
Latest Posts
Article information
Author: Delena Feil
Last Updated:
Views: 6386
Rating: 4.4 / 5 (65 voted)
Reviews: 88% of readers found this page helpful
Author information
Name: Delena Feil
Birthday: 1998-08-29
Address: 747 Lubowitz Run, Sidmouth, HI 90646-5543
Phone: +99513241752844
Job: Design Supervisor
Hobby: Digital arts, Lacemaking, Air sports, Running, Scouting, Shooting, Puzzles
Introduction: My name is Delena Feil, I am a clean, splendid, calm, fancy, jolly, bright, faithful person who loves writing and wants to share my knowledge and understanding with you.