▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | GreenCity | Italian Channel Awards | Italian Project Awards | ...
Logo ImpresaGreen.it

AI è una sanguisuga di energia. Le idee per contenere i consumi

Sono in corso diversi studi per cercare di contenere i consumi delle Intelligenze Artificiali. Soluzioni hardware e software che potrebbero cambiare il futuro dell'elaborazione digitale.

Redazione ImpresaGreen

L'Intelligenza Artificiale consuma una quantità esagerata di energia elettrica. Ormai l'AI è alla base dei progressi tecnologici di quasi tutti i settori, dai trasporti alle previsioni meteo, quindi è un elemento di cui non si può fare a meno. Il guaio è che i computer e i data center che supportano i complessi algoritmi di AI dipendono dall'elettricità.

È difficile farsi un'idea chiara dei consumi, ma ci sono diverse ricerche accademiche che ci hanno provato. Per esempio, un articolo pubblicato sul repository arXiv riporta che le emissioni di carbonio per addestrare un modello base di elaborazione del linguaggio naturale siano equiparabili alla CO2 prodotta in un paio d'anni da un cittadino con uno stile di vita nella media. Un modello più raffinato produce l'equivalente di circa 17 anni di emissioni.

qctech efficientai inline1 gif
L'organizzazione senza scopo di lucro OpenAI, co-fondata da Elon Musk, sostiene che la potenza di calcolo "utilizzata nelle più grandi sessioni di addestramento all'IA è aumentata esponenzialmente, con un tempo di raddoppio di 3,4 mesi" dal 2012 ad oggi. Ossia dal momento in cui le GPU hanno iniziato a farsi strada nei sistemi di elaborazione AI.

Dalle GPU ai chip neuromorfi

Le GPU di Nvidia sono oggi lo standard di riferimento nell'hardware AI. Ma ci sono molte aziende emergenti che stanno sfidando la sua supremazia. Molte stanno sviluppando chipset progettati per funzionare come il cervello umano, ossia neuromorfi.

Una delle aziende leader in questo campo è la startup britannica Graphcore, che sviluppa una IPU (Intelligence Processing Unit). Rispetto alle GPU fornisce risultati simili, ma esegue il lavoro molto più rapidamente. Il lavoro di sviluppo dei tecnici di Graphcore adotta un approccio analogo a quello adottato da un team di ricercatori italiani, recentemente pubblicato sulla rivista scientifica Science Advances.

Giacomo Pedretti, Alessandro Bricalli e Daniele Ielmini hanno realizzato un circuito che sfrutta un dispositivo chiamato memristor. Tenta di imitare il cervello umano, elaborando i dati direttamente all'interno della memoria, invece che facendo transitare i dati da e verso diversi chip.
processor 540254 1920
Il vantaggio principale di una soluzione come questa è la mancanza di qualsiasi movimento di dati. Ossia della principale causa di colli di bottiglia nei computer convenzionali. Inoltre, esegue un'elaborazione parallela dei dati che consente interazioni intime all'interno dell'array di memoria.

Proprio questo approccio all'elaborazione potrebbe costituire l'elemento di svolta nell'impatto sull'efficienza energetica dell'IA. Potrebbe accelerare compiti molto avanzati mediante il calcolo fisico all'interno di un solo circuito di memoria.

Non solo hardware

Quanto detto sopra potrebbe far pensare che il fabbisogno di energia elettrica dell'IA sia da imputare unicamente a una questione hardware. Non è così. Per compiere progressi significativi occorrono innovazioni epocali anche sotto il profilo degli algoritmi e dei set di dati.

Un esempio pratico per capire che cosa s'intende arriva da Qualcomm Technology. Una delle aree di ricerca chiave nella divisione di Ricerca e Sviluppo dell'azienda statunitense è l'efficienza energetica. Max Welling, a capo di questa divisione, sottolinea la necessità di algoritmi più efficienti dal punto di vista energetico. È arrivato al punto di suggerire che gli algoritmi AI vengano misurati in base alla quantità di intelligenza fornita per joule.

Ecco il motivo per il quale l'uso dell'apprendimento profondo bayesiano per le reti neurali profonde è un'area emergente in fase di studio. L'argomento è molto complesso, l'aspetto principale da capire è che il deep learning bayesiano è un tentativo (questa volta software) di imitare il modo in cui il cervello elabora le informazioni, introducendo valori casuali nella rete neurale.
unknown 1769656 1280Il risultato che si ottiene è simile a quello dei chip IPU: comprime i dati al fine di ridurre la complessità di una rete neurale. A sua volta, ciò riduce il numero di "passaggi" necessari, ad esempio, per riconoscere animali, oggetti e altro.

Per trovare progressi concreti in tal senso bisogna chiamare in causa l'Oak Ridge National Laboratory. Un gruppo di ricercatori ha dimostrato che si può migliorare l'efficienza energetica dell'AI convertendo le reti neurali di deep learning in quella che viene chiamata una rete neurale "spiking". I ricercatori hanno creato una rete neurale spiking profonda (Deep Spiking Neural Network, DSNN) introducendo un processo stocastico che aggiunge valori casuali, proprio come il deep learning bayesiano.

Anche qui l'obiettivo è rifarsi al modello del cervello umano. La DSNN, infatti, imita il modo in cui i neuroni interagiscono con le sinapsi, che inviano segnali tra le cellule cerebrali. I "picchi" nella rete indicano dove eseguire i calcoli. Il consumo di energia si riduce perché vengono ignorati i calcoli non necessari.

Al momento questa tecnica viene impiegata per le ricerche sul cancro. Il sistema scansiona milioni di cartelle cliniche alla ricerca di informazioni utili a rilevare cause e trattamenti della malattia.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaGreen.it iscriviti alla nostra Newsletter gratuita.
Pubblicato il: 23/03/2020