Kaspersky: lIA migliora le performance ESG delle aziende

Nel dinamico mondo del business di oggi, le aziende di tutto il mondo stanno adottando l'intelligenza artificiale (IA) per migliorare le proprie attività, dagli assistenti digitali di customer service al data management. Inoltre, l'IA permette di accrescere le competenze delle organizzazioni nel promuovere processi ambientali, sociali e di governance (ESG), affrontare le sfide della sostenibilità e costruire un futuro sostenibile.

Autore: Redazione ImpresaGreen

Studi recenti dimostrano che le policy ESG stanno diventando sempre più importanti e fondamentali nelle decisioni di investimento e nelle operazioni di M&A, in quanto sempre più organizzazioni intraprendono cambiamenti a lungo termine per promuovere un futuro sostenibile. Molte stanno valutando come affrontare queste sfide globali grazie all’integrazione dell'IA nella propria azienda, sfruttando le potenzialità dei dati non strutturati per migliorare il reporting ESG e creare le basi per ricavare preziose informazioni per gli stakeholder aziendali. Kaspersky approfondisce il modo in cui l'IA può essere utilizzata per migliorare ogni aspetto del nostro futuro sostenibile affrontando i rischi per la sicurezza. Impatto ambientale Gli algoritmi di IA e ML possono contribuire a rafforzare l’impegno delle aziende in materia di gestione ambientale, monitorando e analizzando i dati, consentendo di prendere decisioni informate e perfezionando le strategie per affrontare in modo efficace i problemi di sostenibilità. Ridurre il consumo energetico Le aziende possono monitorare impiego e consumo di energia grazie modelli di intelligenza artificiale, ottimizzando le impostazioni di utilizzo per ridurre le emissioni. Lo studio dell'Unione Europea sottolinea il potenziale di trasformazione di questo approccio, prevedendo un risparmio energetico fino al 15%. Inoltre, tali modelli di intelligenza artificiale possono anche offrire previsioni più accurate in merito alle conseguenze delle azioni attuali dell'azienda e aiutare i principali stakeholder a pianificare strategie efficaci per mitigare gli impatti del cambiamento climatico. Raggiungere lo Zero Waste Secondo la Banca Mondiale, la produzione globale di rifiuti è destinata a raddoppiare entro il 2050. L'impiego di algoritmi di intelligenza artificiale offre alle aziende una soluzione strategica per contrastare questa tendenza. Ad esempio, queste tecnologie possono ridurre al minimo gli sprechi grazie ai sensori e allo smistamento automatico dei rifiuti nelle fabbriche, aumentando l'efficienza delle risorse. Inoltre, l'utilizzo del machine learning per analizzare i dati sul consumo dei prodotti e sulle abitudini dei clienti consente alle aziende di individuare opportunità per tagliare gli sprechi, prolungare la vita dei prodotti e ridurre le emissioni associate. Responsabilità sociale L'aspetto sociale valuta il modo in cui un'azienda sostiene la società e i diversi gruppi sociali, compresi i dipendenti, i clienti, i fornitori e le comunità. Prendersi cura dei dipendenti L'intelligenza artificiale e gli strumenti di ML possono aiutare a identificare le potenziali preoccupazioni ed esigenze dei dipendenti e suggerire i modi in cui le aziende possono aumentarne la soddisfazione e il benessere. I sistemi basati sull'intelligenza artificiale possono aiutare i professionisti delle risorse umane a mantenere gli stipendi in linea con gli standard di settore e di mercato, garantendone la competitività, analizzando al contempo le performance per prendere decisioni informate su aumenti e bonus basati sul merito. In questo modo si garantisce che le decisioni in materia di retribuzione siano basate su dati in tempo reale e che siano eque e obiettive. Inoltre, impiegati nei processi di selezione e assunzione, i sistemi basati sull'intelligenza artificiale possono snellire le operazioni di scansione dei curricula e associare i candidati alle descrizioni delle mansioni. Governance e compliance I fattori di governance esaminano il modo in cui un'azienda si regola, concentrandosi sui controlli interni e sulle pratiche per mantenere la conformità alle normative, alle procedure di settore e alle policy aziendali. Compliance normativa Con un’attenzione crescente su governance e compliance in vari settori, da quello bancario e assicurativo a quello automobilistico e sanitario, le aziende si devono confrontare con l’obbligo di rispettare le normative in continua evoluzione. Mantenersi aggiornati sulle ultime modifiche è cruciale e impegnativo, soprattutto per le organizzazioni che operano in più giurisdizioni. I sistemi avanzati di intelligenza artificiale offrono una soluzione scansionando autonomamente i database normativi e gli annunci ufficiali alla ricerca di aggiornamenti o modifiche. Una volta rilevate, queste modifiche possono essere rapidamente comunicate ai reparti competenti o integrate senza problemi nei sistemi di conformità in tempo reale. Questo approccio proattivo aiuta a mitigare i rischi associati alla non conformità legale e normativa, proteggendo le organizzazioni da potenziali multe, sanzioni e danni alla reputazione. Governance dei dati Questo aspetto potrebbe essere ricondotto anche alla governance dei dati, che si basa su un insieme di metriche, standard, politiche e processi per garantire che le aziende utilizzino i dati dei clienti in modo corretto e responsabile. Le soluzioni basate sull'intelligenza artificiale aiutano a identificare le anomalie, come le violazioni nei data center, e gli attacchi informatici, riconoscendo gli schemi delle cyber minacce, garantendo una protezione continua dei dati dei clienti. Quali sono i possibili rischi per la sicurezza informatica Nonostante il significativo impatto positivo e il potenziale dell'IA nelle pratiche di sviluppo sostenibile, non bisogna dimenticare i rischi associati all'introduzione delle tecnologie. Innanzitutto, l'integrazione di nuove tecnologie nei processi aziendali suscita l'interesse dei criminali informatici, sempre desiderosi di aumentare i vettori dei loro attacchi informatici. L'80% degli esperti di dati concorda sul fatto che l'IA sta introducendo nuove sfide di cybersecurity. Questi attacchi possono compromettere l'accuratezza dei modelli di IA su un particolare campione o addirittura su un'intera classe di oggetti. Ad esempio, gli aggressori possono cercare di influenzare i campioni di addestramento per modificare il comportamento del modello, ottenendo il controllo sul processo decisionale del sistema di IA. A ciò può aggiungersi il rischio di violazione degli insiemi di dati elaborati e analizzati dall'IA e il loro uso improprio. I rischi di questi attacchi possono aumentare a causa di protocolli di sicurezza deboli, crittografia insufficiente o mancanza di soluzioni di cybersecurity sui dispositivi aziendali in grado di impedire l'uso non autorizzato dei modelli di IA. Pertanto, una strategia responsabile di IA rafforzata da strumenti di cybersecurity è un fondamentale per evitare numerosi rischi informatici. Poiché l'IA viene impiegata attivamente per lavorare con grandi quantità di informazioni, ottimizzando i processi, sorgono alcune domande sull'etica, ma chi dovrebbe essere ritenuto responsabile delle decisioni prese dai sistemi di IA? Si tratta di dilemmi etici complessi che richiedono discussioni aperte e la creazione di un consenso all'interno della società. Kaspersky è fermamente convinta che per affrontare i problemi etici e trovare soluzioni sia necessaria la collaborazione tra vari stakeholder, tra cui aziende, organizzazioni non governative (ONG) e accademici. Senza questa collaborazione, lo sviluppo incontrollato dell'IA potrebbe avere ripercussioni negative sulla società. Ciò che le aziende possono fare ora è rendere i loro algoritmi di IA e ML il più affidabili possibile. Ad esempio, consentendo di appellarsi alle decisioni dell'algoritmo per migliorarne le prestazioni, escludendo ogni possibile pratica discriminatoria o violazione della privacy degli individui e della sicurezza online. È inoltre fondamentale garantire che la raccolta, l'archiviazione e l'elaborazione dei dati siano conformi alle normative sulla privacy. Un approccio per affrontare questo problema consiste nell'adottare forti misure di sicurezza all'interno dell'organizzazione per salvaguardare i dati da accessi non autorizzati, manomissioni o furti. Poiché tali attacchi possono influenzare l'accuratezza dei modelli di ML su sample di addestramento, gli aggressori possono cercare di influenzare questi campioni per modificare il comportamento di un modello di ML. Tuttavia, con misure di protezione adeguate e rispettando specifiche condizioni, queste minacce possono essere mitigate. Per garantire lo sviluppo e l'adozione sostenibile dell'IA nelle iniziative aziendali, è necessario condurre regolarmente valutazioni dell'impatto sulla privacy, audit di sicurezza e pratiche di trasparenza per individuare eventuali rischi e vulnerabilità potenziali nella gestione dei dati. È essenziale rispettare gli standard di settore nella fase di analisi della qualità dei modelli, oltre a garantire la disponibilità di metriche di qualità e mantenere il controllo sui dati e sui modelli sottostanti utilizzati per creare algoritmi di apprendimento automatico. Ad esempio, i ricercatori di Kaspersky studiano il comportamento dei nostri modelli, come il sistema Anti-Spam o di rilevamento del malware, nel tentativo di identificare e risolvere potenziali vulnerabilità. L'obiettivo finale è quello di fortificare e rafforzare i nostri sistemi contro i rischi tecnici o etici. "L'intelligenza artificiale sta rivoluzionando il modo in cui affrontiamo le sfide globali della sostenibilità. La convergenza di IA e sostenibilità offre una soluzione interessante per le aziende che vogliono accelerare le loro iniziative di sostenibilità, sostenere le comunità svantaggiate, combattere le sfide ambientali e verificare la conformità della governance. L'allineamento di IA e sostenibilità non è solo una mossa strategica, ma una risposta critica per soddisfare le diverse esigenze degli stakeholder di oggi", ha dichiarato Vladislav Tushkanov, Research Development Group Manager del dipartimento Machine Learning Technology Research di Kaspersky.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.