Quantcast
News

Foto di abusi sui minori per addestrare l’intelligenza artificiale

Condividi l'articolo

Negli ultimi giorni è emersa una notizia sconcertante riguardante l’utilizzo di immagini di abuso sessuale infantile per addestrare generatori di immagini attraverso l’intelligenza artificiale. Un rapporto del Stanford Internet Observatory ha rivelato la presenza di migliaia di immagini di abuso sessuale infantile all’interno del dataset noto come LAION-5B, utilizzato per l’addestramento di generatori di immagini come Stable Diffusion di Stability AI. Questa scoperta ha sollevato preoccupazioni sulla sicurezza e sull’etica nell’uso di tali tecnologie.

Contenuto del rapporto

Il rapporto evidenzia la presenza di oltre 3.200 immagini sospette di abuso sessuale infantile all’interno dell’indice di LAION, un dataset che conta circa 5,8 miliardi di immagini. Di queste, circa 1.000 sono state verificate esternamente. Questo solleva seri dubbi sul processo di sviluppo rapido e competitivo dei progetti di intelligenza artificiale generativa, che potrebbero non prestare sufficiente attenzione all’esclusione di contenuti dannosi come questi.

Leggi anche:

Il problema si estende anche alla trasformazione di fotografie di adolescenti presenti sui social media in immagini nude e alla generazione di rappresentazioni esplicite di bambini falsi. Questo tipo di contenuto inappropriato richiede un’azione decisa per evitare la diffusione di versioni problematiche di Stable Diffusion.

Misure proposte e risposte delle aziende coinvolte

Il rapporto ha sollevato la necessità di eliminare o ripulire i modelli di intelligenza artificiale addestrati con i dati di LAION-5B e ha richiamato l’attenzione su entità come Hugging Face e CivitAI per implementare migliori pratiche e controlli di sicurezza. L’azienda OpenAI, sviluppatrice di DALL-E e ChatGPT, ha dichiarato di non utilizzare LAION e di aver modificato i propri modelli per rifiutare richieste che coinvolgono contenuti sessuali con minori. Google, d’altra parte, ha deciso di non rendere pubblico il suo modello di immagini basato sui dati di LAION a causa del contenuto inappropriato trovato, tra cui immagini pornografiche e stereotipi sociali dannosi.

Conclusioni e implicazioni

La scoperta di materiale di abuso sessuale infantile all’interno dei dataset utilizzati per addestrare modelli di intelligenza artificiale solleva gravi preoccupazioni riguardo all’etica e alla sicurezza nello sviluppo di queste tecnologie. È necessario stabilire protocolli più rigorosi e promuovere la collaborazione tra sviluppatori, esperti di sicurezza infantile e autorità per prevenire la diffusione di contenuti dannosi e garantire un uso responsabile dell’IA. Inoltre, le autorità regolatorie, come quelle degli Stati Uniti, stanno sollecitando l’istituzione di una commissione che indaghi sull’impatto dell’IA nell’abuso sessuale infantile e che vietino la creazione di materiale di abuso sessuale generato dall’IA.

È fondamentale affrontare questo problema in modo tempestivo e attuare misure concrete per proteggere i minori e preservare l’integrità e la sicurezza delle tecnologie emergenti come l’intelligenza artificiale. Solo attraverso una collaborazione globale e un impegno collettivo possiamo garantire un futuro migliore e più sicuro per tutti.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
(Visited 37 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x