C’è una nuova minaccia nel mondo digitale che sfrutta un’applicazione di intelligenza artificiale chiamata Fal.ai per mettere in moto delle truffe ai danni degli utenti del web più ignari e vulnerabili. Questo programma, apparentemente innocuo, consente agli utenti di trasformare il proprio volto in quello di una celebrità, aprendo la porta a potenziali utilizzi malintenzionati. Al momento, questa IA funziona principalmente con i volti dei personaggi famosi, ma il suo futuro potenziale solleva preoccupazioni legate ai furti di identità e all’emergere di deepfake di natura dannosa, come per esempio il revenge porn. Andiamo quindi a capire il funzionamento di questa intelligenza artificiale, il modo in cui viene utilizzata per le truffe e il pericolo che rappresenta per la sicurezza online.
- Trasformarsi in Brad Pitt con un clic è possibile: bastano pochi passaggi
- La truffa della videochiamata di Brad Pitt: come funziona
- L'avvertimento finale: non fidarti di una videochiamata da Brad Pitt
Trasformarsi in Brad Pitt con un clic è possibile: bastano pochi passaggi
Andiamo con ordine e partiamo dal principio. Per imitare un attore famoso come Brad Pitt, l’intelligenza artificiale rende il processo sorprendentemente semplice. Basta inquadrare il proprio volto attraverso la videocamera del computer, digitare il nome “Brad Pitt” e premere “Turn On“. L’interfaccia web riesce a mantenere la fisionomia dell’attore in tempo reale, sovrapponendola a quella della persona che si trova dall’altro lato della webcam. Ci sono piccoli limiti, però e alcune espressioni risultano ancora artificiose.
Scopri anche:– Nuova truffa, stai attento alla telefonata sul tuo familiare
La versatilità dell’applicazione si estende a numerose celebrità, come George Clooney e Johnny Depp, oltre che a personaggi globali come Papa Francesco o Taylor Swift. Funziona meno bene con le persone “comuni” o con personaggi non così famosi a livello mondiale.
Sebbene Fal.ai mostri promettenti capacità di mimetizzazione, presenta ancora limiti evidenti. Come abbiamo detto, alcune espressioni possono apparire ancora posticce al punto da deformare visibilmente i volti della persona emulata. Inoltre, l’intelligenza artificiale fatica nel replicare fedelmente un cambio di genere. Un uomo che voglia impersonare una celebrità donna, o viceversa, troverà maggiori difficoltà.
Tra l’altro, è possibile apportare modifiche a numerosi dettagli, come orologi, accessori gioielli e colore dei vestiti. Attualmente, l’applicazione non consente di effettuare videochiamate convincenti fingendosi qualcun altro, ma gli esperti avvertono che si tratta solo di una questione di tempo.
La truffa della videochiamata di Brad Pitt: come funziona
Fal.ai potrebbe diventare una potente arma per i truffatori specializzati nei furti di identità. L’uso dell’intelligenza artificiale per clonare le voci delle persone è già una realtà, e la Federal Trade Commission degli Stati Uniti ha registrato oltre 36.000 segnalazioni di persone truffate nel solo 2022, prima che l’utilizzo massiccio delle intelligenze artificiali esplodesse, per una cifra che supera abbondantemente gli 11 milioni di dollari.
Ora, con l’avvento di questa nuova applicazione IA, il passo successivo potrebbe essere il video, rendendo ancora più difficile distinguere la realtà dalla finzione.
L’avvertimento finale: non fidarti di una videochiamata da Brad Pitt
A conclusione di questo discorso, un avvertimento: è essenziale rimanere vigili e consapevoli della minaccia potenziale rappresentata da questo utilizzo delle intelligenze artificiali. Se ricevete una videochiamata da Brad Pitt o da qualsiasi altra celebrità, è prudente essere scettici e non rispondere.
Celebrità come Brad Pitt hanno sicuramente impegni più importanti che spingersi a fare delle truffe telefoniche casuali. La sicurezza online richiede consapevolezza e precauzione, specialmente di fronte a nuove tecnologie che possono essere sfruttate per scopi malevoli.