Per capire bene che cosa si intende con Deepfake, è bene fare un passo indietro, quello che è assolutamente certo è che l’intelligenza artificiale sta sempre di più prendendo il sopravvento. Nello specifico tramite questo sistema è possibile avviare una elaborazione automatica di informazioni con il fine ultimo di potere ottenere dei risultati. Gli stessi che in linea di massima richiedono intelligenza umana.
Per intenderci si tratta di una vera e propria moda che si è fatta sempre più largo grazie alla maggiore digitalizzazione degli ultimi anni e anche alla disponibilità di avere dei computer decisamente più potenti a costi più bassi. Insomma ormai da troppo tempo si fa sempre di più uso di una grande quantità di dati per potere estrarre delle informazioni. Che poi da un certo punto di vista potrebbero anche ritorcersi contro.
Un dettaglio non da poco questo che ha dato la possibilità anche a piccole società o anche a singoli individui di potere utilizzare degli algoritmi sempre più specializzati e atti appunto anche al deepfake. Insomma un insieme di teorie ad analisi numerica con delle tecniche di statistica avanzata. Degli algoritmi che gli esperti definiscono Machine Learning.
E non finisce qua, in tempi ancora più recenti sono anche stati ripresi degli studi secondo cui ci sono degli algoritmi capaci di potere simulare delle reti neurali, per meglio dire dei modelli di neuroni, collegati tra di loro con dei neuroni di input, di elaborazione e di output. Insomma una idea che di fatto non è per nulla recente e che si può fare risalire al Perceptron che è stato ideato verso la fine degli anni 50. Un modello semplificato di rete neurale di cui però poi è stata anche dimostrata la limitazione nell’elaborazione dati.
Per intenderci, queste reti sono dette profonde e quindi deep in inglese e questo perché in queste reti aumenta anche la profondità degli strati intermedi nascosti. Quindi poi di conseguenza per estensione deep fake che indica appunto il contenuto fake profondi perche spesso sono prodotti con l’uso di deep learning. Questo per potere apprendere quelle che sono le caratteristiche verosimili da potere poi simulare e rendere difficoltoso il capire la falsità.
Questo termine è stato reso noto nel 2017 prendendo spunto da un utente di Reddit che appunto produceva video porno sovrapponendo in modo davvero realistico facce di celebrità. Insomma un particolare di non poco conto che alla conta dei fatti può essere considerato anche molto pericoloso. E che a quanto pare ha avuto ed ha ancora delle ripercussioni anche per quello che concerne il mondo delle criptovalute.
Deepfake: questo sistema minaccia anche il controllo KYC dei cripto exchange
La recente proliferazione mainstream della tecnologia di intelligenza artificiale ha portato all’espansione della tecnologia fraudolenta di imitazione dei deepfake, che ora minaccia anche i controlli KYC sugli scambi di criptovaluta. Recentemente è emerso sul web un nuovo strumento chiamato ProKYC, in grado di eludere i controlli di identificazione. Rappresenta un nuovo livello di frode finanziaria altamente sofisticata in grado di causare gravi danni a più società di criptovaluta.
Oltre a ciò, le violazioni dei dati stanno diventando sempre più frequenti e purtroppo queste violazioni coinvolgono anche importanti società di investimento, mettendo a rischio le loro informazioni online. Ma entriamo ancora di più nel dettaglio: negli ultimi due anni, l’espansione della tecnologia dell’intelligenza artificiale ha innescato un aumento delle frodi finanziarie online, compreso l’uso sempre più diffuso di video deepfake. I video sono creati con l’aiuto dell’intelligenza artificiale, che consente ai truffatori di impersonare celebrità e personaggi famosi replicandone realisticamente l’aspetto e le voci.
Attraverso questi video, i truffatori possono consentire alle vittime meno attente di entrare tramite collegamenti di phishing o acquistare token truffa. Si assiste sempre di più a casi come questo con crescente frequenza su Twitter, Youtube e altri social media, con video deepfake con i volti di Cristiano Ronaldo, Elon Musk e altri. A volte questi modelli vengono utilizzati anche nelle videochiamate aziendali, con l’obiettivo di estrarre dati preziosi su collaboratori, dipendenti e manager.
Ovviamente gran parte dei deepfake riguardano il mondo delle criptovalute, dato che gli stessi truffatori traggono profitto da elementi di pseudo-anonimato. Tuttavia, esistono anche sistemi di sicurezza, come la verifica KYC sugli scambi, che possono impedire l’utilizzo dannoso dell’intelligenza artificiale. Le piattaforme di trading utilizzano KYC per integrare nuovi utenti, richiedono foto, video e analisi biometriche facciali e introducono barriere anti-deepfake.
Gli scambi limitano quindi il rischio che le banche vengano sfruttate per attività criminali come il riciclaggio di denaro e la vendita dei proventi di frodi. Ora però stiamo entrando in una nuova fase di truffe legate all’intelligenza artificiale, con tecniche ultrasofisticate capaci talvolta di attaccare anche i più grandi exchange di criptovalute. E non finisce qua: Un nuovo strumento deepfake basato sull’intelligenza artificiale è in grado di aggirare il KYC sugli scambi di criptovaluta. Si tratta di ProKYC, uno strumento di abbonamento da 629 dollari all’anno che consente ai truffatori di creare ID falsi e generare video falsi.
L’emergere di deepfake ProKYC e AI in grado di eludere i controlli KYC a rischio di cambio ha portato ad un aumento delle frodi finanziarie, che sono già di per sé estremamente pericolose. Grazie alla funzione New Account Fraud, per intenderci, i partecipanti possono ora creare più account sull’exchange. Inoltre, ProKYC afferma di essere in grado di aggirare le misure KYC delle piattaforme di pagamento Stripe e Revolut.
Se le piattaforme finanziarie non sviluppano nuovi sistemi di rilevamento dei deepfake, le loro strutture saranno inevitabilmente danneggiate gravemente. Il problema è che se i controlli biometrici sono troppo severi c’è il rischio di “falsi positivi” e l’esperienza dell’utente può essere molto fastidiosa. Ad oggi esistono metodi di rilevamento alternativi per gli strumenti di intelligenza artificiale deepfake che hanno un responsabile umano.
“Gli agenti di scambio devono identificare manualmente immagini e video per identificare i movimenti facciali e le discrepanze nella qualità delle immagini. Tuttavia, esiste un discorso a parte sulle violazioni dei dati e sul furto di identità, in cui documenti e prove reali vengono utilizzati in modo improprio per lanciare varie truffe online. Solo pochi giorni fa, la società di investimento Fidelity ha subito una violazione dei dati che ha coinvolto oltre 77.000 clienti” hanno spiegato gli esperti del settore.
Insomma si tratta di qualcosa a cui prestare davvero tanta attenzione considerando il fatto che ci si potrebbe trovare nel mezzo senza nemmeno saperlo. Al momento le sanzioni per la frode d’identità negli Stati Uniti sono severe e possono variare a seconda del tipo e della gravità del reato. La pena massima è la reclusione fino a 15 anni e una pesante multa.