News

Allarme privacy: ChatGPT “vede” le tue foto e sa dove ti trovi

Condividi l'articolo

Da metà aprile 2025, una nuova inquietante tendenza sta emergendo tra gli utenti di ChatGPT: sfruttare le capacità avanzate dei modelli o3 e o4-mini per tentare di localizzare persone a partire dalle loro fotografie. Questi modelli di ragionamento, recentemente introdotti, dimostrano una notevole abilità nell’elaborare immagini. Infatti, riescono a ritagliare, ruotare e persino ingrandire foto che appaiono sfocate o distorte.

Questa potente capacità di analisi visiva, combinata con il loro accesso in tempo reale alle risorse di Internet, trasforma o3 e o4-mini in strumenti potenzialmente efficaci per l’identificazione di posizioni geografiche. Alcuni utenti del social network X (precedentemente Twitter) hanno già sperimentato con il modello o3, scoprendo la sua efficacia nel riconoscere città, punti di riferimento specifici e persino singoli ristoranti, basandosi su un numero sorprendentemente limitato di indizi visivi presenti nelle immagini.

È importante sottolineare, tuttavia, che questi modelli non attingono alle conversazioni precedenti avute con l’utente né ai dati EXIF, quei metadati nascosti all’interno dei file immagine che spesso contengono informazioni sulla posizione dello scatto. Ciononostante, gli esempi condivisi dagli utenti su X mostrano chiaramente come l’intelligenza artificiale possa essere impiegata per dedurre una posizione a partire da elementi apparentemente innocui come la foto di un menu di un ristorante, la facciata di un edificio o un semplice selfie.

Leggi anche:

Alcuni utenti stanno persino mettendo alla prova queste capacità nel contesto del popolare gioco “GeoGuessr”, dove l’obiettivo è indovinare una località basandosi su immagini di Google Street View.

Al di là del potenziale ludico, questa nuova tendenza solleva serie preoccupazioni riguardo alla privacy individuale. Se da un lato l’abilità di ChatGPT nell’analisi visiva può apparire come un’innovazione affascinante, dall’altro evidenzia come, con l’aiuto dell’intelligenza artificiale, malintenzionati potrebbero utilizzare fotografie pubblicamente disponibili sui social network per compromettere la sicurezza e la riservatezza delle persone. Sebbene la capacità di ricavare informazioni sulla posizione da immagini non sia una novità assoluta, il modello o3 sembra portare questa analisi a un livello di precisione significativamente superiore rispetto alle sue versioni precedenti, ampliando lo spettro dei potenziali abusi.

Nonostante queste avanzate capacità, è fondamentale ricordare che lo strumento non garantisce ancora un’identificazione accurata al 100%. Gli utenti hanno segnalato casi in cui il modello si blocca durante l’analisi, produce risultati errati o manifesta difficoltà nell’interpretare immagini particolarmente complesse o ambigue.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.


Scopri di più da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 votes
Article Rating
Subscribe
Notificami
guest


0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments