News

Voci artificiali per truffare i conventi: 15 casi in Spagna

Condividi l'articolo

Diversi conventi in Spagna sono stati vittime di truffe in cui i criminali utilizzavano l’intelligenza artificiale per imitare le voci dei leader religiosi locali. Secondo il Daily Star, questi incidenti hanno avuto luogo principalmente nella provincia di Jaen, nel sud della Spagna. La Guardia Civil spagnola, l’unitร  di polizia responsabile dei crimini nelle zone rurali, ha riferito che nelle ultime settimane fino a 15 conventi sono stati presi di mira da questi truffatori.

In uno dei casi riportati, un truffatore si รจ finto il vescovo di Jaen, Sebastian Chico, chiamando diverse suore in un convento e chiedendo loro di trasferire 5.000 euro per un intervento chirurgico. Le suore, ignare di parlare con un truffatore, hanno inviato il denaro, per poi rendersi conto in seguito di essere state ingannate.

Lo stesso truffatore ha chiamato anche un convento nella cittร  di Torredonjimeno, sempre nella provincia di Jaen. Il suo inganno ha funzionato e le suore del secondo convento hanno consegnato metร  della somma rubata al primo convento.

Tuttavia, una suora ha sospettato dell’inganno e ha rimproverato il truffatore al telefono, dicendo: “Tu non sei Don Sebastiano, la tua voce รจ molto rauca”. Il truffatore ha cercato di convincerla affermando di essere effettivamente il vescovo e di avere bisogno dei soldi per un’operazione alla gola.

Leggi anche:

Josรฉ Antonio Sanchez, provicario della diocesi di Jaen, ha commentato affermando che i truffatori approfittano della buona fede delle suore che sono molto rispettose nei confronti del vescovo, il loro pastore spirituale.

Anche l’ufficio vescovile della cittร  di Almeria ha confermato queste osservazioni, avvertendo che i truffatori utilizzano l’IA per creare imitazioni quasi perfette delle voci e, nei video, anche del volto e dei gesti della persona che stanno impersonando.

In un caso simile negli Stati Uniti, una madre dell’Arizona รจ stata quasi vittima di una truffa basata sull’IA che imitava la voce di sua figlia. Nel giugno 2023, Jennifer DeStefano ha testimoniato davanti al Senato degli Stati Uniti sulla sua esperienza con una truffa simile. Un truffatore aveva fingendo di aver rapito sua figlia e aveva richiesto un riscatto di 1 milione di dollari, successivamente ridotto a 50.000 dollari. Tuttavia, si รจ poi scoperto che la figlia e il marito stavano bene.

DeStefano ha cercato di denunciare l’accaduto alla polizia, ma non รจ stata presa sul serio. Ha quindi invitato i legislatori a prendere provvedimenti per prevenire truffe di questo tipo, sottolineando l’importanza di regolamentare e proteggere l’uso dell’IA per evitare che minacci la nostra comprensione della veritร  e la fiducia nelle cose reali.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di queste nuove truffe del deepfake vocale? Lascia un commento nellโ€™apposita sezione che trovi piรน in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email allโ€™indirizzoย [email protected].


Scopri di piรน da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 voti
Article Rating
Iscriviti
Notificami
guest
0 Commenti
Piรน recenti
Vecchi Le piรน votate
Feedback in linea
Visualizza tutti i commenti