Quantcast
News

Il futuro dell’intelligenza artificiale preoccupa anche OpenAI

Condividi l'articolo

Diversi ricercatori di OpenAI hanno scritto una lettera al consiglio di amministrazione per mettere in guardia da una “svolta nell’intelligenza artificiale generale”, come riportano Reuters e The Information. Vediamo i dettagli.

Cos’è l’intelligenza artificiale generale

Gli attuali sviluppi dell’apprendimento automatico e di altri metodi per creare sistemi intelligenti non sono in realtà intelligenza artificiale. Anche i modelli linguistici più avanzati, come il GPT-4 Turbo, prevedono la parola successiva sulla base di statistiche senza comprendere il senso del discorso.

Tuttavia, il termine intelligenza artificiale si è imposto nella cultura mediatica insieme alle reti neurali e ad altri modelli di apprendimento automatico. Allo stesso tempo, l’intelligenza artificiale viene solitamente suddivisa in ristretta e generale. Nel primo caso, la tecnologia è in grado di risolvere compiti specifici: giocare a scacchi, generare testi o riconoscere oggetti in un’immagine. L’intelligenza artificiale generale può invece agire come un cervello umano e prendere decisioni su qualsiasi argomento.

Ricercatori e futurologi si interrogano da tempo sulla sicurezza dell’intelligenza artificiale generale. Un esempio di come l’IA possa andare oltre i limiti del consentito è ben illustrato nella serie di film Terminator.

Cosa si sa degli sviluppi di OpenAI

Il progetto, chiamato Q, viene presentato come un sistema in grado di risolvere problemi matematici che non fanno parte del set di addestramento dell’algoritmo. Per ora, Q è in grado di affrontare solo esercizi delle scuole elementari, ma questo è solo l’inizio.

I modelli GPT sono anche in grado di eseguire semplici operazioni con i numeri (anche se non sempre correttamente), sostituendo la risposta più probabile in base alle informazioni apprese. A giudicare da quanto descritto dai media, Q* opera in modo diverso. I ricercatori ritengono che per risolvere anche compiti scolastici, l’algoritmo abbia bisogno della capacità di ragionamento insita negli esseri umani. Nella lettera, gli specialisti di OpenAI affermano che questa tecnologia “può minacciare l’umanità” e chiedono quindi al consiglio di amministrazione di adottare le necessarie misure di sicurezza.

Ma l’avvertimento e lo stesso progetto Q* esistono davvero? Per ora è difficile dirlo. Secondo le fonti di The Verge, il consiglio di amministrazione di OpenAI non ha ricevuto alcuna lettera. Inoltre, dicono gli stessi insider, i progressi dei ricercatori nello sviluppo della tecnologia non hanno influito sull’improvviso licenziamento del capo dell’azienda Sam Altman. In precedenza, i media hanno scritto che uno dei motivi delle sue dimissioni è il desiderio di migliorare continuamente l’IA, senza considerare le minacce alla sicurezza.

D’altra parte, l’insider Jimmy Apples ha dichiarato a settembre che OpenAI è riuscita a sviluppare un’intelligenza artificiale comune nell’ambito della ricerca interna. E un giorno prima del suo licenziamento, Altman ha dichiarato che il suo team aveva “spinto in avanti la frontiera della scoperta”.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Ti è stato utile questo articolo? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x