Luci e ombre dell’AI nella cybersecurity
Quando una tecnologia è a disposizione di tutti, anche dei cybercriminali
In questo articolo approfondiamo come l’Intelligenza Artificiale viene utilizzata per mettere a segno i furti d’identità o le frodi a danno delle aziende, cosa si può fare per difendersi e come Intesa protegge i suoi sistemi di identificazione.
In questo articolo scoprirai:
Il rapporto più recente dell’Associazione Italiana per la Sicurezza Informatica (CLUSIT) dipinge un quadro sconfortante per l’Italia. Nel 2023 gli attacchi informatici nel nostro paese sono aumentati del 65% rispetto all’anno precedente, di cui l’81% classificabili come critici o gravi. Complessivamente, l’Italia si è trovata a fronteggiare l’11,2% degli attacchi a livello mondiale. Una percentuale che, considerate le dimensioni del nostro paese per popolazione e per PIL, certamente riflette la scarsa diffusione delle competenze digitali di base (confermato dal DESI 2023, che ci vede quart’ultimi in Europa): non a caso ad essere cresciuti maggiormente (+87%) sono gli attacchi basati su phishing e social engineering.
A rendere il quadro ancora più preoccupante si aggiunge poi la diffusione dell’Artificial Intelligence generativa, sempre più utilizzata dai cyber-criminali per costruire attacchi sempre più verosimili e pericolosi soprattutto nel phishing e nel furto di identità, per esempio per generare contenuti testuali più accurati e privi errori ortografici o di traduzione (il primo segnale da verificare per riconoscere un attacco di phishing), o falsificando i numeri delle telefonate in entrata (CLI Spoofing). Contemporaneamente però, questa stessa tecnologia è sempre più utilizzata nei sistemi di sicurezza informatica.
Luci e ombre dell’AI dunque: in questo articolo approfondiamo come questa tecnologia viene utilizzata per mettere a segno i furti d’identità o le frodi a danno delle aziende, cosa si può fare per difendersi e come Intesa protegge i suoi sistemi di identificazione.
Leggi anche: EU AI Act: cos’è e cosa prevede
AI nei cyber-attacchi: modalità di utilizzo
L’AI può essere utilizzata in diversi modi per gli attacchi informatici, per esempio:
- Nei sistemi conversazionali, per esempio creando chatbot fasulli per acquisire informazioni sensibili alle vittime.
- Generazione di immagini e video, creando deepfake per generare immagini o video fasulli.
- Nei sistemi di raccomandazione, che forniscono suggerimenti sbagliati e malevoli per rubare informazioni alle vittime.
Nei casi sopra riportati le vittime dirette dell’attacco sono soggetti singoli a cui vengono sottratte informazioni e password. Ma l’AI può essere utilizzata dai cybercriminali anche in ambiti più ampi e complessi, per esempio per identificare le categorie di vittime, simulare “scenari d’attacco” o addirittura ottimizzare le fasi di un attacco informatico.
AI, deepfake e identificazione da remoto
Probabilmente la minaccia più grande oggi è comunque rappresentata dai cosiddetti “deepfake”, ovvero video o audio manipolati artificialmente per far sembrare che qualcuno stia dicendo o facendo qualcosa che non ha mai fatto, un ramo dell’AI che nell’ultimo anno ha conosciuto uno sviluppo e un miglioramento esponenziale, in alcuni casi rendendo molto complesso per l’occhio umano distinguere un video vero o un video generato con AI. Grazie ai social, inoltre, i cybercriminali hanno a disposizione tantissimo materiale per “allenare” i sistemi AI per questo tipo di frodi: recentemente un’azienda di Hong Kong ha perso una cifra altissima, circa 25 milioni, dopo un meeting online in cui alcuni criminali si sono finti dei colleghi grazie ai “deepfake”.
Questo tipo di frodi possono rappresentare una minaccia anche per il riconoscimento da remoto? Nonostante il potenziale pericolo, al momento il rischio rappresentato dai deepfake nei processi di riconoscimento è ancora relativamente basso, perché registrare un video modificato “in diretta” durante un processo di riconoscimento è ancora piuttosto complicato e la tecnologia di rilevamento dei deepfake è in continua evoluzione.
Secondo Giuseppe Mariani, General Manager di Intesa: «È fondamentale che la cybersecurity e i controlli antifrode siano integrati in modo pervasivo all’interno dei processi aziendali. Dall’infrastruttura tecnologica ai dispositivi utilizzati, dalla verifica dei documenti alla validità dei video caricati, ogni fase del processo deve essere soggetta a rigorosi controlli, senza però andare a intaccare eccessivamente la user experience o creare processi troppo complessi e lunghi».
La sicurezza del riconoscimento Intesa
Proprio per avere delle procedure di sicurezza che siano diffuse e pervasive su tutto il processo, l’identificazione con AI di Intesa effettua delle verifiche su ogni passaggio:
1. controllo della veridicità del documento di identità, qualsiasi sia il documento utilizzato: vengono verificati il font, tutti gli elementi grafici e la data di scadenza. In caso di anomalie, viene attivato un controllo umano.
2. utilizzo di banche esterne per la verifica dei dati (per esempio SCIPAFI, una delle più famose) ma anche della presenza digitale dell’utente, per esempio da quanto tempo sono stati creati il numero di telefono o l’indirizzo e-mail
3. nel caso di self-onboarding con verifica della liveness, viene verificato se il volto è presente nella nostra blacklist o se lo stesso volto è stato associato a dati anagrafici diversi e ovviamente se corrisponde al documento caricato
4. ogni notte poi viene effettuato un un “overnight check” su tutti i video caricati nel tempo nei processi di riconoscimento effettuati da Intesa. Qualora vengano rilevate corrispondenze sospette, viene avviata una verifica manuale dei dati anagrafici.
Conclusioni
L’intelligenza artificiale è sicuramente uno strumento molto potente nelle mani dei cybercriminali, ma lo è altrettanto per chi si occupa di sicurezza informatica. L’importante è applicarla in modo pervasivo su ogni fase dei processi aziendali, aggiornando costantemente i sistemi e informando le risorse sulle nuove modalità di attacco.