Intelligenza Artificiale nella cybersecurity: quali prospettive? - APRE
Seguici su

Modalità risparmio energetico

Questa schermata riduce il consumo di energia del monitor quando non sei attivo sul nostro sito.
Per riprendere la navigazione è sufficiente muovere il mouse.

Intervista ad Alessandro Guarino, CEO di StAG, advisor in materia di Cybersecurity e Data Protection, Presidente del Gruppo di Lavoro Internazionale sugli Agenti Autonomi per la Cyber-difesa (“AICA-IWG”)

Che ruolo ha oggi l’Intelligenza Artificiale nel settore della sicurezza informatica, e come sta evolvendo in Europa?

Partiamo da una piccola premessa: molto spesso viene chiamata Intelligenza Artificiale quello che in realtà è un sottoinsieme dell’IA, ovvero il machine learning o, in italiano, apprendimento automatico. Si tratta, in gran parte, di sistemi che possono imparare basandosi su grossi insiemi di dati che agiscono da esempio. Ci sono anche dei sistemi in grado di imparare senza avere dati di esempio, ma ad oggi sono una minoranza. La novità dell’ultimo anno è quella che viene definita Intelligenza Artificiale generativa che comprendere sistemi in grado di generare contenuto nuovo (si pensi a ChatGPT che crea nuovi testi basati su una richiesta). Anche in questo caso sono sistemi di machine learning, sebbene più evoluti.

Quello che succede nel campo della sicurezza informatica è che all’inizio è una rivoluzione per tutti. La cybersecurity si basa per i difensori sul contrastare e mitigare i cyberattacchi, mentre per gli attaccanti sul fatto di penetrare dei sistemi al fine di raggiungere dei target (di solito informazioni). Come spesso succede nel caso di innovazioni, sono innanzitutto gli attaccanti ad essere avvantaggiati in quanto i sistemi di Intelligenza Artificiale generativi possono non solo creare testi ma anche generare codici. Ciò vuol dire che il processo di creazione del software malevolo che viene usato dagli attaccanti, o exploit, può essere automatizzato. Al momento questo fornisce un enorme, seppure temporaneo, vantaggio agli attaccanti che non devono più scrivere manualmente linee di codice per generare attacchi.

La difesa dovrà fare altrettanto per mettere in sicurezza i sistemi. Per cui nel breve tempo potrebbe esserci una sorta di “corsa agli armamenti” fino a che non si raggiungerà un nuovo equilibrio. Anche i sistemi di difesa dovranno diventare il più intelligenti possibili, e usare sistemi di machine learning il più rapidamente possibile. Soprattutto, dovranno diventare più autonomi. C’è un campo nella sicurezza informatica che si occupa di sviluppare quelli che vengono chiamati “agenti autonomi”, ossia programmi che risiedono nei sistemi da difendere.

Poniamo il caso di un sistema informatico di un ospedale. Questo tipo di software “pattuglia” il suo perimetro, cioè il sistema informativo che deve difendere, e in caso di attacco deve rilevarlo autonomamente ed eventualmente operare anche azioni di mitigazione. Ciò prima che qualche operatore umano abbia la possibilità di farlo, perché altrimenti se gli attaccanti hanno a disposizione sistemi intelligenti, rapidi, e multiformi, anche i difensori dovranno averli.

Tutto questo si basa sul fatto di avere a disposizione determinati modelli. Quindi c’è un problema di chi ha accesso a quei sistemi. OpenAI, per esempio, ha messo dei limiti a quali prompt possono essere utilizzati.

Il problema sarà a un livello forse più alto, strategico, ossia quando qualcuno userà o sta già usando questi sistemi per perpetrare attacchi contro la sicurezza nazionale dei paesi, contro infrastrutture critiche, sistemi militari e quant’altro. Qui occorre ricordare che l’Europa al momento non ha a disposizione questi sistemi. In questo senso, da un punto di vista strategico, l’Europa è indietro.

Lo scorso settembre la Commissione europea ha pubblicato il report “Cybersecurity of Artificial Intelligence in the AI Act” dedicato al requisito di sicurezza informatica nei sistemi di IA ad alto rischio fornendo un insieme di principi guida per assicurare la conformità all’AI Act. Qual è la sua opinione a riguardo?

Il principio in generale è che per i sistemi ad alto rischio verranno creati i cosiddetti harmonized standards. Nella pratica, se quel sistema viene certificato secondo uno schema di certificazione che verrà creato e basato su quegli standard, si presume che sia conforme. Quindi la responsabilità dello sviluppatore, ossia dell’entità che pone quel sistema sul mercato, è tutelata. Questo è un approccio che funziona bene sulla carta. Il processo di certificazione, tuttavia, non è lineare e a costo zero ma complesso e costoso. Gli effetti della produzione di simili normative sul mercato e sulla competitività dell’Europa non sono stati adeguatamente considerati.

Il processo di certificazione può trasformarsi in una barriera all’ingresso che viene eretta in un sistema già non competitivo. Una buona regolamentazione può avvenire quando la tecnologia è sostanzialmente matura, quando c’è un sistema, un settore economico abbastanza sano e maturo da essere competitivo. In questo stadio, in Europa, di maturità della tecnologia in generale e del mercato interno in particolare, ciò può trasformarsi in un ostacolo alla competitività.

Questo a maggior ragione se si tratta di un settore, come quello digitale, in cui le piccole imprese e le start-up dovrebbero essere messe nella condizione di innovare. La posizione opposta è che siamo obbligati a prevenire dei rischi che sono percepiti come estremamente pericolosi dal punto di vista etico, di possibili discriminazioni e così via. L’approccio visto fin ora da parte della Commissione, basato sulla limitazione dei rischi, sembra essere però squilibrato verso la paura delle conseguenze.

Nel numero precedente di APREmagazine, abbiamo riportato il caso del progetto FORGING tra le iniziative finanziate dalla Commissione per identificare quelle tecnologie emergenti più promettenti da un punto di vista sociale e ambientale. Lei ha avuto modo di partecipare al workshop di progetto “Societal scenarios for industry 5.0”. Vuole condividere la sua esperienza?

Il workshop ha suscitato una discussione molto interessante tra gli esperti partecipanti, che spesso è andata anche oltre il confine del progetto in sé che intende fornire un input alla Commissione sulla futura ricerca e come indirizzarla. FORGING si concentra sulle 6 aree tecnologiche dell’Industria 5.0 tra cui Intelligenza Artificiale e Cyber safe data. Gli esperti sono stati divisi in sessioni parallele per poi riportare i risultati delle discussioni in una sessione plenaria di cross-fertilisation. Il dibattito si è concentrato su come trasferire i risultati della ricerca di base e della ricerca applicata ai prodotti sul mercato, e su cosa sta facendo l’Unione Europea, e la Commissione in particolare, a livello di regolamentazione riguardo l’IA.

Sono emerse due direzioni ben precise su questo punto. La premessa indiscutibile è che l’Unione è in estremo ritardo in questo campo rispetto agli Stati Uniti, ma anche rispetto alla Cina. Non siamo competitivi. I modelli di linguaggio su larga scala (Large Language Models – LLMs) sono basati completamente negli Stati Uniti. C’è un problema di sovranità. Il problema per l’Europa è cercare di colmare questo divario. La prima posizione emersa dal workshop di FORGING ritiene che l’Europa abbia al momento un approccio basato in maniera eccessiva sui possibili rischi. Un approccio simile blocca ogni tentativo di colmare il gap con gli altri paesi e di trasferire i risultati prodotti sul mercato. Soprattutto se oltre alla legislazione si aggiunge il discorso della certificazione obbligatoria legata all’AI Act.

In Europa manca l’ecosistema che hanno gli Stati Uniti per trasferire i risultati della ricerca in realtà economiche che possono crescere. La seconda posizione, contrapposta alla prima, ritiene necessaria una maggiore regolamentazione. È stata avanzata l’idea di creare una piattaforma unica europea per l’Intelligenza Artificiale che potrebbe fornire a tutto il settore le tecnologie di base in linea con i principi dell’Unione. Si tratterebbe non solo di un repository, o una libreria di tool o di conoscenza, ma fisicamente dell’offerta tecnologica di un servizio basato sull’Intelligenza Artificiale su cui si possono costruire prodotti e servizi (qualcosa di simile a quello che OpenAI sta facendo con ChatGPT).

A mio avviso, questo approccio top-down è destinato a non funzionare. C’è un problema di disomogeneità. Quello europeo non è un mercato unico. Dovremmo sforzarci di abbattere le barriere per risultare più competitivi. Inoltre, quali sono gli incentivi sottostanti perché simile piattaforma venga mantenuta nel tempo, sia continuamente aggiornata? Si torna al discorso dell’approccio basato sui rischi. Ridurre l’intero dibattito alla paura delle conseguenze negative di queste tecnologie è limitante. Anche i talenti individuali tendono ad emigrare verso altri paesi. Quindi non lasciare libero lo sviluppo di questi prodotti potrebbe creare dei problemi da punto di vista di privare l’Europa di talenti in questo settore a lungo termine.

StAG ha preso parte a diversi progetti finanziati nel quadro dei programmi Horizon. In che modo questo tipo di iniziative favorisce la ricerca nel settore? Qual è l’impatto di questi progetti?

L’impatto non è piccolo, ma a medio/lungo termine potrebbe essere migliore. I risultati prodotti in termini di conoscenza e di tool sviluppati non sono da sottovalutare. Tuttavia, la exploitation dopo il termine del progetto non è così efficace come potrebbe essere. Ci sono delle regole di base su come vanno sfruttati i risultati di progetto, ma è difficile tenere insieme il consorzio soprattutto perché di solito i progetti sono collaborativi. Un approccio innovativo che stiamo cercando di sviluppare nei progetti a cui partecipiamo è quello di creare un’entità legale unica in grado di tenere insieme i risultati del progetto, portarli avanti, e trasferirli alle imprese.

Potrebbe essere utile modificare le regole di partecipazione e implementazione dei progetti finanziati da Horizon per assicurare che l’exploitation venga sostenuta e portata avanti in comune con tutto il consorzio del progetto.

Quale spazio hanno ad oggi considerazioni legate alla privacy e all’etica nello sviluppo di soluzioni di sicurezza informatica basate sui sistemi di Intelligenza Artificiale?

Il nodo in questo caso è legato all’utilizzo dei sistemi di AI generativa di cui non si ha il controllo sui dataset. Ad oggi in Europa sviluppiamo servizi basati su sistemi non europei. Servizi come ChatGPT sono anche per le imprese che li utilizzano delle scatole nere perché non sappiamo come quel sistema sia stato allenato, per cui non possiamo controllarne bias interni e rischi. La domanda è: lo usiamo o non lo usiamo? Siamo d’accordo che in Europa siamo indietro: ci mancano quelle piattaforme e ci mancano quei tipi di imprese. Siamo anche d’accordo che averli in Europa, sotto la normativa europea, garantirebbe il rispetto della protezione dei dati, della privacy, come previsto nel GDPR. Il problema è che non li abbiamo. Il paradosso è che per non rimanere indietro dobbiamo usare l’IA generativa però questa non è prodotta in Europa per cui non possiamo garantire la protezione e il rispetto dei diritti che sarebbero garantiti se fosse propriamente europea.

Per questo, prima di regolamentare in modo così abbondante simili sistemi, il consiglio è di produrli. Ciò deve nascere non tanto dalla pressione normativa europea ma deve essere facilitata la nascita di entità in concorrenza tra loro. Se basati in Europa, questi sistemi garantirebbero il più possibile l’assenza di alcuni rischi. Da punto di vista strettamente tecnologico, è un’opportunità enorme. Bisognerebbe rimuovere il più possibile gli ostacoli e le barriere allo sviluppo in Europa di competitor.

Per concludere, bisogna considerare anche un aspetto fisico, non solo cyber, legato alla gestione dell’enorme quantità di dati che serve per i sistemi di IA generativa. L’impatto ambientale cambia a seconda di come viene generata l’elettricità per elaborare e gestire i dati. Creare questi modelli ha delle conseguenze notevoli nel mondo reale che bisogna mettere in conto.

Questo è anche il motivo per cui in FORGING promuoviamo il dibattito su questi temi al fine di creare delle tecnologie che siano attente alla sostenibilità e a considerazioni sociali.
Ing. Guarino, arrivati alla conclusione della nostra intervista, la ringrazio per aver condiviso con noi la sua esperienza e per averci dato la misura del panorama europeo in questo settore.

Questo articolo è tratto da APREmagazine n. 23 di novembre/2023

Torna su