“Oggi sappiamo che l’intelligenza artificiale è uno strumento fondamentale per la cybersecurity, ma sappiamo anche che può diventare l’anello debole della catena”. È da questa sottile linea di demarcazione che Fabio Roli, Professore Ordinario di Ingegneria Informatica, Università degli Studi di Genova – in vista della sua partecipazione alla prossima edizione della Cyber Security Arena, che si terrà all’interno di SICUREZZA 2023 (prevista a Rho-Fiera Milano dal 15 al 17 novembre) – ha iniziato a spiegarci come l’intelligenza artificiale sia ormai diventata protagonista nello sviluppo e nell’evoluzione di processi, dinamiche e flussi di interazione e gestione di ogni tipo di attività, in un’era sempre più digitale e digitalizzata, nella quale le imprese, i luoghi di lavoro, gli edifici in cui abitiamo e le città in cui viviamo si trasformano in elementi di un'unica grande rete costantemente connessa e in evoluzione, consentendo, da una parte, ai sistemi e ai dispositivi di sicurezza e prevenzione di diventare più efficaci, rapidi ed efficienti, ma dall’altra, rendendoli anche più vulnerabili e fragili. “La moderna tecnologia dell’intelligenza artificiale basata sul “machine learning” – ha proseguito il professore – ha la capacità di analizzare enormi quantità di dati in tempo reale per riconoscere uno specifico “pattern” d’interesse all’interno dei dati, una particolare “configurazione” dei dati. Questo è quello che gli addetti ai lavori chiamano “pattern recognition” e che consente di usare l’intelligenza artificiale per centinaia di diverse applicazioni, come ad esempio riconoscere tutte le foto che contengono il pattern che corrisponde al mio viso in un insieme di milioni di foto che possono contenere migliaia di volti di altre persone”. D’altro canto, la moderna cybersecurity si basa ormai essenzialmente sulla capacità di analizzare enormi quantità di dati in tempo reale per riconoscere “pattern” che corrispondano a comportamenti anomali delle macchine o di chi le utilizza. “Questa capacità di riconoscere “pattern” – ha precisato Roli – è quella che, ad esempio, consente ai nostri filtri antispam di separare le email che vogliamo ricevere da quelle indesiderate e potenzialmente pericolose”. Il “pattern recognition” è quindi davvero il fattore comune fra l’intelligenza artificiale e la cybersecurity. “Questo ci fa capire perché oggi molti dicono, esagerando un po’, che la cybersecurity è tutta intelligenza artificiale e che l’intelligenza artificiale è “all you need” per la cybersecurity – ha sottolineato l’accademico –. Ma non è tutto oro quello che luccica, e, fuor di metafora, oggi sappiamo che l’intelligenza artificiale non è la soluzione finale per la cybersecurity, non è quel “silver bullet” che si era creduto potesse essere venti anni fa. Gli addetti ai lavori hanno ormai capito che la stessa intelligenza artificiale è vulnerabile ad attacchi. Quando uso l’AI all’interno del mio sistema informatico rischio, se non l’adotto con l’adeguata consapevolezza, di aumentare la vulnerabilità del mio sistema, di aumentare quella che gli esperti chiamano la superficie d’attacco”.
L’EQUILIBRIO VULNERABILE DELL’AI
In questo senso, quindi, l’intelligenza artificiale è un altro degli anelli che posso inserire nella catena della cybersecurity. “Può diventare l’anello forte o paradossalmente quello più debole – ha ribadito Roli –. La compliance e la privacy sono sicuramente due problematiche che vanno affrontate con cura per evitare che diventi l’anello più debole, insieme al problema cardine della vulnerabilità intrinseca dell’intelligenza artificiale ad attacchi mirati. In generale, sicuramente, il primo aspetto su cui concentrarsi, quando si decide di implementare i propri sistemi e le proprie soluzioni con questa tecnologia, è quello di investire nella formazione del personale, a partire dai livelli manageriali, per aumentare la consapevolezza sui benefici ed i rischi legati all'AI. In secondo luogo, poi, bisogna considerare l’utilizzo di piattaforme industriali per lo sviluppo, la messa in opera, la gestione e la manutenzione dei sistemi di AI. Sto parlando delle moderne piattaforme di MLOps (Machine Learning Operations). Le piattaforme di MLOps consentono di sviluppare e mantenere i modelli di AI in produzione in modo affidabile ed efficiente e riducono sicuramente i rischi di compliance e privacy rispetto all’uso di strumenti più “artigianali” o fatti in casa. Infine, sarà necessario affrontare il problema dell’adozione dell’AI in azienda a 360°, non solo a livello tecnologico, ma anche a livello organizzativo e legale. Mettere in sicurezza l’AI, fare in modo che rispetti la compliance e la privacy, non è un problema che può essere risolto solo a livello tecnologico. E sarà ancora meno possibile farlo quando entrerà in vigore l’European AI Act”.
METTERE IN SICUREZZA IL PROCESSO DELL’AI
In questo senso, la messa in sicurezza dell’AI è un problema molto complesso, di “processo” potremmo dire. “Si tratta di mettere in sicurezza un processo mitigando e gestendo i rischi connessi all’uso di una nuova tecnologia che è tutto meno che perfetta”, ha aggiunto il professore. Nonostante questo, le opportunità sono chiare. “L’AI – ha sottolineato l’accademico – consente di introdurre nella cybersecurity un livello di automazione nella difesa dei sistemi informatici e delle reti che li collegano che è impensabile ottenere senza usare l’AI. La mole dei dati da analizzare per proteggere i sistemi, i dispositivi e le reti non può prescindere dall’uso dell’AI”. Per questo l’AI è una necessità oltre che un’opportunità. “La grande prospettiva futura che vedo – ha commentato Roli – è quella di avere macchine intelligenti in grado di riconoscere “pattern”, nel senso detto prima, che miglioreranno e renderanno più sicura la vita dei cittadini e dei consumatori nel modo fisico e digitale. Parlo di un’evoluzione di quello che sta già accadendo ora. Personalmente sono già molto grato ai sistemi basati su AI quando mi avvertono che potrei cliccare su qualcosa di potenzialmente pericoloso mentre navigo in rete o leggo le mie e-mail. Lo fanno riconoscendo “pattern” dentro milioni di dati. Qualcosa che nessuno di noi può fare”. Già ora, infatti, gli algoritmi di AI ci proteggono da momenti di disattenzione e ci aiutano a muoverci con sicurezza nella complessità di un mondo digitale che non sempre è a misura d’uomo e che ci bombarda con troppi dati che non possiamo umanamente analizzare. “Sono fiducioso – ha aggiunto il professore – che l’AI dei prossimi anni sarà un angelo custode ancora migliore per la nostra cybersecurity. Un guardiano sempre più intelligente e sempre più “amichevole”. Venendo ai rischi, invece, per capirli bisogna comprendere cosa è l’AI oggi e cosa sarà ancora per molti anni. Secondo Roli, che poi ha aggiunto. “Questo concetto, però, Non ha nulla a che fare con l’intelligenza umana. Questo va detto chiaro e tondo. La moderna AI è una tecnologia che analizza enormi quantità di dati e scopre delle correlazioni statistiche”. Impara a scoprire solo delle correlazioni statistiche, i famosi “pattern” di cui parlavamo prima. “Anche l’ultimo arrivato di grande successo nel mondo dell’AI, ChatGPT, fa questo. ChatGPT non ha imparato l’italiano, anche se sembra parlarlo molto bene. Non ha imparato la grammatica italiana e, per dirla un po’ brutalmente, “non sa letteralmente di cosa parla”. La tecnologia alla base di ChatGPT consente semplicemente di fare una predizione di quale sia la parola successiva più probabile in una data frase”. Una cosa molto semplice, che però grazie all’enorme potenza di calcolo e di memoria degli attuali computer consente di “simulare” la capacità di conversare in linguaggio naturale dando l’impressione che ChatGPT conosca una lingua molto bene e sappia molto bene di cosa sta parlando. “Le nostre macchine basate su AI – ha precisato l’accademico – non sono intelligenti come noi, simulano solo dei comportamenti intelligenti. Sono intelligenti in un modo molto diverso che non va antropomorfizzato. Molti dei rischi possono venire proprio da antropomorfizzare l’intelligenza delle macchine e decidere di delegare a loro compiti che non sono adatti per il tipo di intelligenza che hanno, l’intelligenza di scoprire correlazioni statistiche, “pattern”, in quantità enormi di dati che noi non potremmo mai analizzare. Per la cybersecurity un altro rischio concreto che vedo è quello di restare legati alla visione dell’AI come una soluzione magica, un “silver bullet”, e non approfondire seriamente il problema delle vulnerabilità dell’AI”. La moderna AI, infatti, dipende strettamente dai dati che le forniamo come esempi affinché possa imparare. “Attaccare l’AI è relativamente facile se si può manipolare i dati e purtroppo è spesso possibile farlo. Resta quindi fondamentale nella cybersecurity vedere l’AI come un anello della catena della sicurezza, una parte di una architettura di sicurezza che contiene molti “strati” e molti anelli”.
UNO SGUARDO AL FUTURO
“Le future tecnologie di cybersecurity basate su AI potrebbero cambiare radicalmente la figura dei professionisti del settore”, ha suggerito Roli. Per capirlo può aiutare l’analogia con la futura figura dello sviluppatore di software che quasi sicuramente non sarà più un programmatore ma un “istruttore” di sistemi di AI che sviluppano software. Per lo sviluppo software è già oggi in parte così, soprattutto dopo l’avvento delle tecnologie simili a ChatGPT. E’ diventato molto comune farsi assistere nello sviluppo del software da strumenti di AI che generano una prima versione di codice funzionante nei principali linguaggi di programmazione. È probabile che accada qualcosa di simile anche agli specialisti della sicurezza informatica – ha indicato il professore –. Saranno figure addette a istruire e gestire gli agenti intelligenti che insieme al personale e alle macchine “non intelligenti” realizzeranno la cybersecurity. Dovranno avere la capacità di fornire a questi agenti intelligenti i dati migliori perché possano imparare come gestire la cybersecurity dei nostri sistemi e reti al meglio, istruirli come facciamo oggi con ChapGPT dandogli i giusti “prompt” (le giuste istruzioni, i giusti dati). Per far questo dovranno avere una conoscenza approfondita dell'AI e delle sue implicazioni sulla sicurezza. Le competenze necessarie comprenderanno una comprensione avanzata dell'IA e delle sue vulnerabilità, la capacità di implementare sistemi di sicurezza basati sull'IA e la gestione delle minacce specifiche legate all'IA. Inoltre, dovranno essere in grado di gestire la formazione continua dei propri collaboratori e rimanere aggiornati sulle ultime tendenze e tecniche utilizzate dagli attaccanti contro l’AI”.
Manca ancora più di un anno alla prossima edizione e SICUREZZA 2025 sta già attirando l’attenzione del mercato. Le oltre 120 aziende da 16 paesi che h ...
Continua a leggereGestire il cambiamento per crescere a livello internazionale: una sfida importante per il settore security & fire, che ha tutte le carte in regola per ...
Continua a leggereMentre gli spazi di SICUREZZA 2025 si stanno rapidamente riempiendo, abbiamo chiesto a CAME, azienda specializzata in soluzioni e prodotti tecnologici ...
Continua a leggere