Disporre un ricco bonifico usando la voce finta del proprio capo

L’ad di una società energetica britannica ha ricevuto una telefonata dal Ceo del gruppo di cui fa parte, nella quale veniva chiesto di disporre un trasferimento di denaro a favore di un fornitore ungherese. Un caso di deep fake che sta facendo parlare gli esperti di intelligenza artificiale

deep fake truffa voce 

Per la prima volta dei truffatori potrebbero aver utilizzato una voce generata da un’intelligenza artificiale per impersonare il dirigente di un’azienda, e disporre un bonifico da 220 mila euro a loro vantaggio. Questo è quanto ricostruito dall’agenzia assicurativa Euler Hermes Group, che sta indagando sulla vicenda. Secondo quanto ricostruito, a marzo l’amministratore delegato di una società energetica britannica ha ricevuto una telefonata dal Ceo del gruppo di cui fa parte, nella quale veniva chiesto di disporre un trasferimento di denaro a favore di un fornitore ungherese. La vittima della truffa avrebbe spiegato di aver riconosciuto nel tono, nel timbro e nella pronuncia tipica tedesca proprio la voce del suo capo.

Come riporta il Wall Street Journal, il truffatore avrebbe detto al telefono che il trasferimento era urgente e che sarebbe dovuto avvenire entro un’ora. Convinta dalla telefonata, la vittima è stata poi contattata nuovamente e rassicurata sul fatto che il gruppo aveva già disposto il trasferimento alla società della somma versata. In una terza chiamata, la voce modificata digitalmente avrebbe chiesto un ennesimo trasferimento di denaro. Solo in questo momento l’amministratore delegato della società britannica si sarebbe insospettito, osservando che la telefonata proveniva dall’Austria, decidendo così di non eseguire il nuovo bonifico. Troppo tardi comunque per la prima somma di denaro, che nel frattempo era stata spostata in Messico e poi versata su diversi altri conti.

Come spiega Wsj, da tempo ormai le autorità di polizia e gli esperti di intelligenze artificiali avevano previsto potenziali usi illegali di simili tecnologie, estremamente efficaci quando chiamate a imitare e riprodurre degli schemi come quelli linguistici o dei movimenti. Sembra proprio questo il caso, dal momento che il machine learning - processo di apprendimento di un computer - avrebbe permesso a un software di riprodurre minuziosamente l’accento del dirigente tedesco, come ha spiegato l’esperto di frodi dell’Euler Hermes, Rüdiger Kirsch.

Finora apparentemente inedito, l’attacco subito dalla società britannica - di cui non è stato divulgato il nome - sembra essere il primo di questo tipo. È tuttavia probabile che precedenti episodi non siano stati identificati correttamente, travisati per normali truffe. In ogni caso, la compagnia assicurativa ha rimborsato l’intera cifra sottratta.

Il problema dei “Deep Fake”

Secondo quanto dichiarato dalla compagnia assicurativa, Kirsch avrebbe trovato e utilizzato dei software commerciali liberamente acquistabili che permettono di imitare il suono della voce, verificando in prima persona la bontà del risultato. Dunque è possibile che i truffatori abbiano fatto ricorso proprio a uno di questi metodi. Non è stato tuttavia possibile escludere che abbiano fatto ricorso anche a dei bot - software automatici che comprendono una domanda e producono una risposta coerente -, circostanza nella quale sarebbe estremamente più difficile risalire ai colpevoli.

Finora noti alle cronache solo come fenomeno di costume del web, i deep fake (dall’inglese, falsi profondi) sono quei prodotti digitali che, grazie all’impiego di complessi algoritmi, sono in grado di modificare voci o immagini sostituendo volti e timbri in modo che sia quasi impossibile distinguerli dagli originali. In un video creato da due artisti americani, un finto Zuckerberg confessa di avere il controllo totale delle vite degli utenti sui social network. Pubblicato a giugno, l’esperimento diventò presto virale, dal momento che era quasi impossibile distinguere l’immagine riprodotta dal vero Mark Zuckerberg.



Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it.