News

I senatori democratici vogliono colpire anche i contenuti AI “sessualizzati non nudi”

Condividi l'articolo

La battaglia contro i contenuti sessuali generati dall’intelligenza artificiale si sta spostando su un terreno nuovo e molto più scivoloso. Un gruppo di senatori democratici statunitensi sta infatti facendo pressione sulle principali aziende tecnologiche affinché estendano la censura oltre la pornografia deepfake esplicita, includendo anche immagini “non nude ma sessualizzate” create o alterate con strumenti di IA.

In altre parole, non è più solo il nudo artificiale a finire nel mirino, ma anche immagini che mostrano persone vestite in modo ritenuto allusivo, suggestivo o “sessualizzato”, pur senza violare apertamente le definizioni tradizionali di pornografia.

La lettera alle Big Tech

In una lettera inviata ad Alphabet, Meta, Reddit, Snap, TikTok e X, i senatori chiedono alle aziende di spiegare in modo dettagliato come identificano, classificano e rimuovono questo tipo di contenuti. La richiesta riguarda immagini che non sono esplicitamente pornografiche, ma che vengono considerate problematiche perché generate o modificate dall’IA con intenti sessuali.

Nel mirino finiscono pratiche come lo “spogliamento virtuale”, la modifica dell’abbigliamento, l’alterazione delle forme del corpo e altri effetti visivi prodotti da modelli generativi. I legislatori chiedono non solo politiche interne, ma anche linee guida operative per i moderatori e documentazione sulle decisioni di rimozione.

La lettera è guidata dalla senatrice Lisa Blunt Rochester del Delaware ed è firmata, tra gli altri, da Tammy Baldwin, Richard Blumenthal, Kirsten Gillibrand, Mark Kelly, Ben Ray Luján, Brian Schatz e Adam Schiff.

“Immagini false, ma iperrealistiche”

I senatori dichiarano apertamente di essere “particolarmente allarmati” da segnalazioni che descrivono l’uso dell’IA per creare immagini sessualizzate — come versioni in bikini o pose suggestive — di persone reali senza il loro consenso. Secondo i firmatari, queste immagini vengono spesso diffuse sulle piattaforme social all’insaputa delle persone ritratte, con conseguenze gravi in termini di molestie, privacy e sicurezza.

Il punto centrale non è solo il contenuto, ma il fatto che si tratti di rappresentazioni artificiali ma credibili, difficili da distinguere da immagini autentiche e quindi potenzialmente devastanti per la reputazione delle vittime.

Leggi anche:

Un problema che va oltre una singola piattaforma

I legislatori sottolineano come esistano già strumenti di intelligenza artificiale capaci di trasformare foto di persone vestite — in particolare donne — in immagini rivelatrici, senza bisogno di prompt complessi. Secondo i senatori, questa pratica rappresenta una nuova forma di abuso basato sulle immagini, destinata a crescere rapidamente con l’evoluzione dei modelli generativi.

Ed è proprio qui che il dibattito si allarga: non si tratta di un singolo servizio o di un’unica azienda, ma di un’intera infrastruttura tecnologica che rende possibile la produzione di contenuti sessualizzati su larga scala.

Il caso X e Grok: Apple e Google sotto pressione

In parallelo, alcuni senatori democratici hanno deciso di alzare ulteriormente il tiro. Ron Wyden, Ed Markey e Ben Ray Luján hanno esortato Apple e Google a rimuovere X dai rispettivi app store, accusando la piattaforma di aver consentito, tramite Grok AI, la generazione di immagini raffiguranti donne e presunti minorenni in bikini.

Secondo i legislatori, questo comportamento dimostrerebbe un “totale disprezzo” per le condizioni di distribuzione degli app store. Vengono citate le regole di Google, che vietano app che facilitano lo sfruttamento o l’abuso dei minori, e le linee guida di Apple contro contenuti ritenuti “offensivi” o “inquietanti”.

Una linea sempre più sottile

La richiesta è chiara: Apple e Google dovrebbero agire contro X finché le presunte violazioni non verranno risolte, anche se la piattaforma conta circa 557 milioni di utenti nel mondo ed è una delle più grandi realtà social ancora disponibili sugli store ufficiali.

Il caso solleva però una questione più ampia e controversa: dove finisce la protezione degli utenti e dove inizia il controllo dei contenuti?
Estendere la repressione dai deepfake pornografici alle immagini “sessualizzate non nude” rischia di aprire una zona grigia, in cui saranno le aziende tecnologiche — sotto pressione politica — a decidere cosa è accettabile e cosa no.

Una cosa è certa: la regolazione dell’IA generativa non è più un dibattito teorico, ma uno scontro diretto tra tecnologia, politica e libertà digitali.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.


Scopri di più da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 voti
Article Rating
Iscriviti
Notificami
guest
0 Commenti
Più recenti
Vecchi Le più votate
Feedback in linea
Visualizza tutti i commenti