Tecnologia

Sicurezza, i limiti dell’uso dell’intelligenza artificiale

  • Abbonati
  • Accedi
Cybersicurezza

Sicurezza, i limiti dell’uso dell’intelligenza artificiale

Nel secolo scorso c'è stata una pietra miliare nella letteratura per gli appassionati di fantascienza: Neuromante, un libro di William Gibson in cui le intelligenze artificiali venivano usate come spietati guardiani del cyberspazio. Ai giorni nostri, i sistemi di difesa informatica che sfruttano algoritmi di machine learning stanno diventando sempre più diffusi e promettono miracoli contro le nuove minacce, ma sono davvero la cura per tutti i nostri problemi?

“Il machine learning”, dice Denis Cassinerio , Regional Sales Director di Bitdefende, “non è il proiettile d'argento per tutti i mali. Si tratta di una tecnologia estremamente potente, flessibile ed efficace contro alcune minacce, ma non può essere l'unico componente del sistema di sicurezza.”

“La struttura moderna per la sicurezza informatica” – continua Bogdan Botezatu, Senior Cyber Security Analyst di Bitdefender – “prevede una struttura a ‘strati', ognuno dei quali in grado di riconoscere e fermare un determinato tipo di attacco. Il machine learning è molto utile nel riconoscere attacchi già visti in passato che riescono a penetrare attraverso le difese grazie modifiche al loro codice o a nuove vulnerabilità. In altre parole, partendo dall'analisi di tutti gli attacchi che abbiamo registrato negli anni, il sistema capisce se i criminali hanno inventato un sistema nuovo per raggiungere i loro scopi”.

Questo, però, il primo grande limite della tecnologia. “In effetti, quando appare una minaccia che fa qualcosa di diverso”, continua Botezatu, “il machine learning fatica a riconoscerla.”

Un esempio lampante è accaduto con l'arrivo dei ransomware: “Quando sono apparsi,” – conferma Cassinerio – “i ransomware facevano qualcosa di completamente diverso da quello a cui i sistemi erano abituati e dato che servono moltissimi dati per addestrare gli algoritmi, le difese automatiche ci hanno messo un po' a diventare efficaci”.

“Paradossalmente,” – incalza Botezatu – “è da notare come proprio il nostro sistema di machine learning ha bloccato l'attacco di Wannacry presso i nostri clienti. Era un ransomware, ma dato che nel suo codice c'era una similitudine con una malware molto vecchio già presente nei nostri archivi, il sistema gli ha impedito di funzionare”.

È quindi difficile capire esattamente dove stanno i limiti “dell'intelligenza artificiale”, ma si sa che i criminali sono sempre alla ricerca di nuovi modi per batterla e il suo peggior nemico potrebbe essere lei stessa. “I nostri sistemi di machine learning” – dice Robert Blumofe, Executive Vice President di Akamai – “sono estremamente efficaci nel riconoscere i bot che cercano di violare account inserendo username e password al posto di un essere umano. Purtroppo, i criminali usano a loro volta degli algoritmi di machine learning per raffinare le loro tecniche di simulazione e cercare di confondere le nostre difese. La battaglia del guardie e ladri, quindi, si sposta a un livello superiore dove entrambi sono intelligenze artificiali”.

Questo ci dà uno spunto di riflessione notevole: se i criminali possono addestrare i loro sistemi di machine learning con i risultati ottenuti contro i sistemi di difesa, si genererà una continua rincorsa che verrà vinta da chi può usare i sistemi più efficaci. Ma c'è una scappatoia: “Il nostro sistema di difesa intelligente” – dice Bogdan Botezatu – “ha una peculiarità: non è completamente in cloud. Se lo fosse, i criminali potrebbero esser sicuri di trovare sempre la stessa difesa in ogni nostro cliente, ma noi installiamo un pezzo degli algoritmi di machine learning proprio sulle postazioni degli utenti, in modo che la difesa si sviluppi in maniera diversa di azienda in azienda. Questo crea una profilo ‘personalizzato' che riduce l'efficacia degli attacchi compiuti analizzando il sistema in cloud”.

Ma c'è chi crede che l'IA non prenderà mai il posto dell'essere umano nella sicurezza. “Il machine learning” – dice Marco Ramilli di Yoroi – “fornisce risposte precise, veloci e puntuali, ma non è progettato per fare e farsi delle domande. Solo facendosi delle domande è possibile capire quali sono gli scopi di un attacco e come debellarlo completamente. Per questo l'essere umano sarà sempre l'elemento indispensabile nella sicurezza, pur sfruttando le grandi capacità del machine learning”.

© Riproduzione riservata