News

L’intelligenza artificiale di Google ha un oscuro segreto

Condividi l'articolo

Google Brain ha rivelato la sua IA per la creazione di immagini, chiamata Imagen. Ma non aspettarti di vedere qualcosa che non è salutare.

Un altro mese, un’altra marea di immagini strane e meravigliose generate da un’intelligenza artificiale. Ad aprile, OpenAI ha mostrato la sua nuova rete neurale per la creazione di immagini, DALL-E 2, in grado di produrre straordinarie immagini ad alta risoluzione di quasi tutto ciò che gli è stato chiesto. Ha superato l’originale DALL-E in quasi tutti i modi.

Ora, solo poche settimane dopo, Google Brain ha rivelato la propria IA per la creazione di immagini, chiamata ImagenE si comporta anche meglio di DALL-E 2: ha un punteggio più alto su una misura standard per la valutazione della qualità delle immagini generate al computer e le immagini che ha prodotto sono state preferite da un gruppo di giudici umani.

“Stiamo vivendo la corsa allo spazio dell’IA!” ha commentato un utente di Twitter. “L’industria delle immagini stock è ufficialmente un brindisi”, ha twittato un altro.

Molte delle immagini di Imagen sono davvero sbalorditive. A prima vista, alcune delle sue scene all’aperto avrebbero potuto essere prese dalle pagine del National Geographic. I team di marketing potrebbero utilizzare Imagen per produrre annunci pubblicitari pronti per i cartelloni pubblicitari con pochi clic.

Leggi anche:

Ma come ha fatto OpenAI con DALL-E, Google punta tutto sulla carineria. Entrambe le aziende promuovono i loro strumenti con immagini di animali antropomorfi che fanno cose adorabili: un panda peloso vestito da chef che prepara la pasta, un corgi seduto in una casa fatta di sushi, un orsacchiotto che nuota la farfalla di 400 metri alle Olimpiadi e così via.

C’è una ragione tecnica, oltre che PR, per questo. Mescolare concetti come “panda fuzzy” e “fare la pasta” costringe la rete neurale a imparare come manipolare quei concetti in un modo sensato. Ma la carineria nasconde un lato più oscuro di questi strumenti, uno che il pubblico non può vedere perché rivelerebbe la brutta verità su come vengono creati.

La maggior parte delle immagini che OpenAI e Google rendono pubbliche sono selezionate. Vediamo solo immagini carine che corrispondono alle loro richieste con incredibile precisione, c’è da aspettarselo. Ma non vediamo nemmeno immagini che contengano stereotipi odiosi, razzismo o misoginia. Non ci sono immagini violente e sessiste. Non esiste il porno panda. E da quello che sappiamo su come sono costruiti questi strumenti, dovrebbe esserci.

Non è un segreto che modelli di grandi dimensioni, come DALL-E 2 e Imagen, addestrati su un gran numero di documenti e immagini presi dal web, assorbano gli aspetti peggiori di quei dati oltre che il meglio. OpenAI e Google lo riconoscono esplicitamente.   

Leggi anche:

Scorri verso il basso il sito Web di Imagen oltre il frutto del drago che indossa una cintura da karate e il piccolo cactus che indossa un cappello e occhiali da sole -alla sezione sull’impatto sociale e ottieni questo:

“Mentre un sottoinsieme dei nostri dati di allenamento è stato filtrato per rimuovere il rumore e i contenuti indesiderati, come immagini e linguaggio tossico, abbiamo anche utilizzato [il] set di dati LAION-400M che è noto per contenere un’ampia gamma di contenuti inappropriati tra cui immagini pornografiche, insulti razzisti e stereotipi sociali dannosi. Imagen si basa su codificatori di testo addestrati su dati su scala web non curati, e quindi eredita i pregiudizi sociali e le limitazioni dei modelli linguistici di grandi dimensioni. Pertanto, esiste il rischio che Imagen abbia codificato stereotipi e rappresentazioni dannose, il che guida la nostra decisione di non rilasciare Imagen per uso pubblico senza ulteriori salvaguardie in atto”.

È lo stesso tipo di riconoscimento che OpenAI ha fatto quando ha rivelato GPT-3 nel 2019: “i modelli addestrati su Internet hanno pregiudizi su scala Internet”. E come ha sottolineato Mike Cook, che ricerca la creatività AI presso la Queen Mary University di Londra, è nelle dichiarazioni etiche che hanno accompagnato il grande modello linguistico di Google PaLM e DALL-E 2 di OpenAI. In breve, queste aziende sanno che i loro modelli sono capaci di produrre contenuti orribili e non hanno idea di come risolverlo. 

Per ora, la soluzione è tenerli in gabbia. OpenAI sta rendendo DALL-E 2 disponibile solo per una manciata di utenti fidati; Google non ha intenzione di rilasciare Imagen.

Va bene se questi fossero semplicemente strumenti proprietari. Ma queste aziende stanno spingendo i confini di ciò che l’IA può fare e il loro lavoro modella il tipo di IA con cui tutti noi conviviamo. Stanno creando nuove meraviglie, ma anche nuovi orrori e vanno avanti con un’alzata di spalle. Quando il team di etica interno di Google ha sollevato problemi con i modelli linguistici di grandi dimensioni, nel 2020 ha acceso una rissa che si è conclusa con il licenziamento di due dei suoi principali ricercatori.

I modelli linguistici di grandi dimensioni e le IA per la creazione di immagini hanno il potenziale per essere tecnologie che cambiano il mondo, ma solo se la loro tossicità viene domata. Ciò richiederà molte più ricerche. Ci sono piccoli passi per aprire questo tipo di rete neurale per uno studio diffuso. Poche settimane fa Meta ha rilasciato un grande modello linguistico a ricercatori, verruche e tutto il resto. E Hugging Face rilascerà la sua versione open source di GPT-3 nei prossimi due mesi. 

Per ora, goditi gli orsacchiotti.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Credi che queste minacce informatiche abbiano un nesso con il famigerato Cyber Polygon? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@libero.it.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
1
(Visited 15 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments