Combattere l'IA
Nel 2022, le banche statunitensi hanno elaborato più di 448 miliardi di dollari in transazioni peer-to-peer (P2P), rendendo queste piattaforme un obiettivo primario per i truffatori. Come nel caso dei paradigmi di frode "classici" come il phishing, anche le frodi Zelle o Venmo sono sempre più alimentate dall'intelligenza artificiale (AI).Mentre i criminali informatici sfruttano il potere dell’apprendimento automatico (e presto) dell’intelligenza artificiale generativa per superare in astuzia i sistemi di rilevamento delle frodi, le tecnologie di prevenzione delle frodi online devono evolversi di conseguenza.
Il rapido ritmo della trasformazione digitale ha apportato benefici incommensurabili alla nostra società e alla nostra economia. È stato anche un enorme vantaggio per i criminali informatici che, come le aziende che prendono di mira, utilizzano ogni giorno l'infrastruttura cloud per ampliare le proprie operazioni. Sfruttando la potenza del cloud, nuovi modelli dannosi di machine learning (ML) offrono la prospettiva di automatizzare attività che solo gli esseri umani potevano eseguire qualche anno fa.
Di conseguenza, la prossima ondata di innovazione nel campo delle frodi prevede l’intelligenza artificiale basata sul cloud o, più correttamente, il machine learning, rendendo di fatto la moderna prevenzione delle frodi una “battaglia tra le macchine”. Queste battaglie di solito iniziano con i truffatori che fanno la prima mossa, utilizzando i servizi cloud per costruire modelli di machine learning in grado di aggirare le difese costruite dalle aziende per individuare le frodi evidenti.
Consideriamo un tipico sistema di mitigazione delle frodi in un contesto di vendita al dettaglio. Supponiamo che un'azienda stabilisca una regola secondo cui in determinate località le transazioni superiori a $ 900 vengono automaticamente contrassegnate per la verifica secondaria. Uno strumento di machine learning potrebbe essere programmato per calcolare, attraverso tentativi ed errori, il punto in cui vengono ispezionate le transazioni di alto valore. Quindi l'avversario deve solo assicurarsi che le sue transazioni fraudolente rimangano inferiori a $ 900 e siano basate nella giusta geolocalizzazione per evitare il rilevamento. Quello che una volta era un processo dispendioso in termini di tempo, diventa una semplice questione di analisi basata sul cloud.
Anche i modelli ML più sofisticati possono essere analizzati e attaccati per individuare i punti deboli da parte di un'intelligenza artificiale dannosa. Più i sistemi di intelligenza artificiale diventano opachi, più è rischioso implementarli in contesti di produzione. Gli esseri umani avranno solo una comprensione limitata del proprio comportamento e dei risultati che potrebbero generare. Inoltre, per rimanere efficaci, devono essere addestrati sui dati degli attacchi precedenti. Questa combinazione li rende vulnerabili allo sfruttamento quando si trovano di fronte a uno scenario leggermente diverso. Sono necessari solo alcuni tentativi e miglioramenti mirati affinché l’intelligenza artificiale dannosa possa apprendere tali sviste e punti ciechi.
Non è tutto. L'intelligenza artificiale potrebbe anche generare dati di immagini false del volto di un utente che siano sufficientemente convincenti da consentire il proseguimento di una transazione, poiché il computer di controllo presuppone che si tratti della foto di un nuovo utente. Oppure potrebbe essere addestrato con dati video o audio pubblici (ad esempio, clip pubblicati sui social media) per impersonare clienti legittimi nei controlli di autenticazione. Allo stesso modo, l’intelligenza artificiale potrebbe essere addestrata a imitare il comportamento umano, come i movimenti del mouse, per superare in astuzia le macchine progettate per individuare segni di attività non umana nelle transazioni. Potrebbe persino generare diverse combinazioni di dati rubati per aggirare i controlli di convalida, un’attività ad alta intensità di calcolo che può essere risolta utilizzando il cloud pubblico.
I criminali informatici spesso hanno un vantaggio rispetto ai difensori, e questo è attualmente il caso dei truffatori online che sfruttano l’intelligenza artificiale. Hanno l’elemento sorpresa e la motivazione finanziaria per avere successo. Tuttavia, i team antifrode e rischio possono contrastare l’intelligenza artificiale dannosa modificando i propri approcci. L’intelligenza artificiale può essere addestrata dai malintenzionati a imitare il comportamento umano in modo più realistico. Ma se viene utilizzato in attacchi automatizzati, dovrà comunque essere implementato come un bot, che può essere rilevato modificando e innovando gli algoritmi di rilevamento delle frodi.
Non solo i difensori possono rafforzare la propria difesa implementando algoritmi ML nuovi e migliorati, ma possono anche cambiare il campo di battaglia in uno che offra loro un vantaggio strategico. Ad esempio, spostando il rilevamento delle frodi ai margini della rete, molto più vicino ai dispositivi utilizzati per effettuare transazioni online, i difensori creano una dinamica in cui comportamenti insoliti o ad alto rischio sono più facili da individuare con un maggiore grado di precisione.