Schneider Electric pubblica un nuovo white paper dedicato al liquid cooling per i data center AI

Il white paper 133 fornisce una guida completa per la scelta della più idonea dell’architettura di raffreddamento a liquido per i server AI, affrontando le sfide e le esigenze più comuni.

Autore: Redazione ImpresaGreen

Schneider Electric ha pubblicato il white paper 133 intitolato "Navigating Liquid Cooling Architectures for Data Centers with AI Workloads". Il documento fornisce un approfondimento sulle tecnologie di raffreddamento a liquido e sulle loro applicazioni nei moderni data center, in particolare quelli che gestiscono carichi di lavoro AI ad alta densità. La domanda di AI sta crescendo a un ritmo esponenziale. Questo comporta un aumento del calore generato nei data center e a lungo andare la necessità di utilizzare il raffreddamento a liquido per mantenere prestazioni, sostenibilità e affidabilità ottimali. Il nuovo white paper di Schneider Electric nasce per aiutare gli operatori dei data center e i responsabili IT a orientarsi nel complesso tema del liquid cooling, offrendo risposte chiare a domande cruciali sulla progettazione, l'implementazione e sul funzionamento dei sistemi. In questo documento, gli autori Paul Lin, Robert Bunger e Victor Avelar identificano due categorie principali di raffreddamento a liquido per i server AI: il raffreddamento diretto su chip e quello a immersione. Descrivono i componenti e le funzioni di un'unità di distribuzione del liquido di raffreddamento (CDU), essenziale per la gestione di temperatura, flusso, pressione e scambio di calore all'interno del sistema di raffreddamento. "I carichi di lavoro dell'intelligenza artificiale presentano sfide di raffreddamento uniche che il solo raffreddamento ad aria non è in grado di affrontare", ha dichiarato Robert Bunger, Innovation Product Owner, CTO Office, Data Center Segment, Schneider Electric. "Il nostro white paper mira a “demistificare” le architetture di raffreddamento a liquido, fornendo agli operatori dei data center le conoscenze necessarie per prendere decisioni informate quando ne pianificano l’implementazione. Il nostro obiettivo è fornire ai professionisti dei data center spunti pratici per ottimizzare i loro sistemi di raffreddamento. Comprendendo i compromessi e i vantaggi di ciascuna architettura, gli operatori possono migliorare le prestazioni e l'efficienza dei loro data center". Il white paper descrive tre elementi chiave delle architetture di raffreddamento a liquido: - Recupero di calore all'interno del server: utilizzo di un mezzo liquido (ad es. olio dielettrico, acqua) per assorbire il calore dai componenti IT. - Tipo di CDU: selezione della CDU appropriata in base ai metodi di scambio termico (liquido-aria, liquido-liquido) e ai fattori di forma (montaggio su rack, montaggio a pavimento). - Metodo di smaltimento del calore: determinazione del modo in cui trasferire efficacemente il calore all'esterno, sia attraverso i sistemi esistenti della struttura, sia attraverso soluzioni dedicate. Scegliere la giusta architettura Il documento descrive in dettaglio sei architetture di raffreddamento a liquido, che combinano diversi tipi di CDU e metodi di smaltimento del calore, e fornisce indicazioni sulla scelta dell'opzione migliore in base a fattori quali l'infrastruttura esistente, le dimensioni dell'implementazione, la velocità e l'efficienza energetica. Con la crescente domanda di potenza di elaborazione dell'intelligenza artificiale e il corrispondente aumento dei carichi termici, il raffreddamento a liquido sta diventando un componente critico della progettazione dei data center. Il white paper affronta anche le tendenze del settore, come la necessità di una maggiore efficienza energetica, la conformità alle normative ambientali e la sostenibilità. "Poiché l'intelligenza artificiale continua a stimolare la necessità di soluzioni di raffreddamento avanzate, il nostro white paper fornisce una risorsa preziosa per orientarsi in questi cambiamenti", ha aggiunto Bunger. "Siamo impegnati ad aiutare i nostri clienti a raggiungere i loro obiettivi di alte prestazioni, migliorando al contempo la sostenibilità e l'affidabilità". Fornire al settore progetti di riferimento per centri dati di intelligenza artificiale Questo white paper è particolarmente tempestivo e rilevante alla luce della recente collaborazione di Schneider Electric con NVIDIA per ottimizzare l'infrastruttura dei data center per le applicazioni di intelligenza artificiale. Frutto di questa partnership è la creazione dei primi reference design per la progettazione di data center AI disponibile per il pubblico, frutto dell’integrazione tra le tecnologie AI avanzate di NVIDIA e l'esperienza di Schneider Electric nell'infrastruttura di data center. I reference design stabiliscono nuovi standard per l'implementazione e il funzionamento dell'intelligenza artificiale, offrendo agli operatori di data center soluzioni innovative per gestire in modo efficiente i carichi di lavoro AI ad alta densità. Per ulteriori informazioni e per scaricare il white paper, visita il sito web di Schneider Electric.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.