News

Voci artificiali per truffare i conventi: 15 casi in Spagna

Condividi l'articolo

Diversi conventi in Spagna sono stati vittime di truffe in cui i criminali utilizzavano l’intelligenza artificiale per imitare le voci dei leader religiosi locali. Secondo il Daily Star, questi incidenti hanno avuto luogo principalmente nella provincia di Jaen, nel sud della Spagna. La Guardia Civil spagnola, l’unità di polizia responsabile dei crimini nelle zone rurali, ha riferito che nelle ultime settimane fino a 15 conventi sono stati presi di mira da questi truffatori.

In uno dei casi riportati, un truffatore si è finto il vescovo di Jaen, Sebastian Chico, chiamando diverse suore in un convento e chiedendo loro di trasferire 5.000 euro per un intervento chirurgico. Le suore, ignare di parlare con un truffatore, hanno inviato il denaro, per poi rendersi conto in seguito di essere state ingannate.

Lo stesso truffatore ha chiamato anche un convento nella città di Torredonjimeno, sempre nella provincia di Jaen. Il suo inganno ha funzionato e le suore del secondo convento hanno consegnato metà della somma rubata al primo convento.

Tuttavia, una suora ha sospettato dell’inganno e ha rimproverato il truffatore al telefono, dicendo: “Tu non sei Don Sebastiano, la tua voce è molto rauca”. Il truffatore ha cercato di convincerla affermando di essere effettivamente il vescovo e di avere bisogno dei soldi per un’operazione alla gola.

Leggi anche:

José Antonio Sanchez, provicario della diocesi di Jaen, ha commentato affermando che i truffatori approfittano della buona fede delle suore che sono molto rispettose nei confronti del vescovo, il loro pastore spirituale.

Anche l’ufficio vescovile della città di Almeria ha confermato queste osservazioni, avvertendo che i truffatori utilizzano l’IA per creare imitazioni quasi perfette delle voci e, nei video, anche del volto e dei gesti della persona che stanno impersonando.

In un caso simile negli Stati Uniti, una madre dell’Arizona è stata quasi vittima di una truffa basata sull’IA che imitava la voce di sua figlia. Nel giugno 2023, Jennifer DeStefano ha testimoniato davanti al Senato degli Stati Uniti sulla sua esperienza con una truffa simile. Un truffatore aveva fingendo di aver rapito sua figlia e aveva richiesto un riscatto di 1 milione di dollari, successivamente ridotto a 50.000 dollari. Tuttavia, si è poi scoperto che la figlia e il marito stavano bene.

DeStefano ha cercato di denunciare l’accaduto alla polizia, ma non è stata presa sul serio. Ha quindi invitato i legislatori a prendere provvedimenti per prevenire truffe di questo tipo, sottolineando l’importanza di regolamentare e proteggere l’uso dell’IA per evitare che minacci la nostra comprensione della verità e la fiducia nelle cose reali.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di queste nuove truffe del deepfake vocale? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
(Visited 37 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments