L'Intelligenza Artificiale consuma una quantità esagerata di
energia elettrica. Ormai l'AI è alla base dei progressi tecnologici di
quasi tutti i settori, dai
trasporti alle previsioni meteo, quindi è un elemento di cui non si può fare a meno. Il guaio è che i computer e i
data center che supportano i complessi algoritmi di AI dipendono dall'elettricità.
È difficile farsi un'idea chiara dei consumi, ma ci sono diverse ricerche accademiche che ci hanno provato. Per esempio, un articolo pubblicato sul
repository arXiv riporta che le emissioni di carbonio per addestrare un modello base di elaborazione del linguaggio naturale siano equiparabili alla CO2 prodotta in un paio d'anni da un cittadino con uno stile di vita nella media. Un modello più raffinato produce l'equivalente di circa 17 anni di emissioni.
L'organizzazione senza scopo di lucro OpenAI, co-fondata da Elon Musk, sostiene che la potenza di calcolo "utilizzata nelle più grandi sessioni di addestramento all'IA è aumentata esponenzialmente, con un tempo di raddoppio di 3,4 mesi" dal 2012 ad oggi. Ossia dal momento in cui
le GPU hanno iniziato a farsi strada nei sistemi di elaborazione AI.
Dalle GPU ai chip neuromorfi
Le GPU di Nvidia sono oggi lo standard di riferimento nell'hardware AI. Ma ci sono molte aziende emergenti che stanno sfidando la sua supremazia. Molte stanno sviluppando
chipset progettati per funzionare come il cervello umano, ossia neuromorfi.
Una delle aziende leader in questo campo è la startup britannica Graphcore, che sviluppa una IPU (Intelligence Processing Unit). Rispetto alle GPU fornisce risultati simili, ma esegue il lavoro molto più rapidamente. Il lavoro di sviluppo dei tecnici di Graphcore adotta un approccio analogo a quello adottato da un
team di ricercatori italiani, recentemente pubblicato sulla rivista scientifica
Science Advances.
Giacomo Pedretti, Alessandro Bricalli e Daniele Ielmini hanno realizzato un circuito che sfrutta un dispositivo chiamato memristor. Tenta di
imitare il cervello umano, elaborando i dati direttamente all'interno della memoria, invece che facendo transitare i dati da e verso diversi chip.
Il vantaggio principale di una soluzione come questa è la
mancanza di qualsiasi movimento di dati. Ossia della principale causa di colli di bottiglia nei computer convenzionali. Inoltre, esegue un'elaborazione parallela dei dati che consente interazioni intime all'interno dell'array di memoria.
Proprio questo approccio all'elaborazione potrebbe costituire l'elemento di svolta nell'
impatto sull'efficienza energetica dell'IA. Potrebbe accelerare compiti molto avanzati mediante il calcolo fisico all'interno di un solo circuito di memoria.
Non solo hardware
Quanto detto sopra potrebbe far pensare che il fabbisogno di energia elettrica dell'IA sia da imputare unicamente a una questione hardware. Non è così. Per compiere progressi significativi occorrono innovazioni epocali anche sotto il profilo
degli algoritmi e dei set di dati.
Un esempio pratico per capire che cosa s'intende arriva da
Qualcomm Technology. Una delle aree di ricerca chiave nella divisione di Ricerca e Sviluppo dell'azienda statunitense è l'efficienza energetica. Max Welling, a capo di questa divisione,
sottolinea la necessità di
algoritmi più efficienti dal punto di vista energetico. È arrivato al punto di suggerire che gli algoritmi AI vengano misurati in base alla quantità di intelligenza fornita per joule.
Ecco il motivo per il quale l'uso dell'
apprendimento profondo bayesiano per le reti neurali profonde è un'area emergente in fase di studio. L'argomento è molto complesso, l'aspetto principale da capire è che il deep learning bayesiano è un tentativo (questa volta software) di
imitare il modo in cui il cervello elabora le informazioni, introducendo valori casuali nella rete neurale.
Il risultato che si ottiene è simile a quello dei chip IPU: comprime i dati al fine di ridurre la complessità di una rete neurale. A sua volta, ciò riduce il numero di "passaggi" necessari, ad esempio, per riconoscere animali, oggetti e altro.
Per trovare progressi concreti in tal senso bisogna chiamare in causa l'
Oak Ridge National Laboratory. Un gruppo di ricercatori ha dimostrato che si può migliorare l'efficienza energetica dell'AI convertendo le reti neurali di deep learning in quella che viene chiamata una rete neurale "spiking". I ricercatori hanno creato una rete neurale spiking profonda (Deep Spiking Neural Network, DSNN) introducendo un
processo stocastico che aggiunge valori casuali, proprio come il deep learning bayesiano.
Anche qui l'obiettivo è rifarsi al modello del cervello umano. La DSNN, infatti, imita il modo in cui i neuroni interagiscono con le sinapsi, che inviano segnali tra le cellule cerebrali. I "picchi" nella rete indicano dove eseguire i calcoli. Il consumo di energia si riduce perché vengono ignorati i calcoli non necessari.
Al momento questa tecnica viene impiegata per le ricerche sul cancro. Il sistema scansiona milioni di cartelle cliniche alla ricerca di informazioni utili a rilevare cause e trattamenti della malattia.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di
ImpresaGreen.it iscriviti alla nostra
Newsletter gratuita.
Notizie che potrebbero interessarti:
Hexagon e Fraunhofer ITWM accelerano il...
SMA e Energy Point Garda per un'energia pulita...
LinkedIn: la domanda di competenze green è...
Logitech lancia i nuovi strumenti per uffici...
Equinix riscalderà oltre 1.000 abitazioni a...
Deloitte e Zucchetti insieme per favorire la...