Quantcast
News

L’intelligenza artificiale può aprire scenari potenzialmente disastrosi

Condividi l'articolo

Un media statunitense ha analizzato i presunti pericoli e benefici dei nuovi sviluppi di questa tecnologia.

Nel 2023 il mondo ha assistito a importanti innovazioni nel campo dell’intelligenza artificiale (AI). A seconda di ciò che si legge, questi progressi sono arrivati a migliorare la vita delle persone o a distruggerla completamente in una sorta di ribellione delle macchine. Una delle notizie più scioccanti di quest’anno è stato il lancio di ChatGPT, che ha generato eccitazione e anche paura tra le persone.

ChatGPT fa parte di una nuova generazione di sistemi di intelligenza artificiale in grado di conversare, generare testi leggibili e persino produrre immagini e video inediti sulla base di ciò che hanno “imparato” da un vasto database di libri digitali, scritti online e altri media.

Derek Thompson, redattore e giornalista della rivista The Atlantic, si è posto una serie di domande per capire se i nuovi progressi dell’IA debbano davvero essere temuti come causa della fine della razza umana o se invece siano strumenti stimolanti che miglioreranno la vita delle persone.

Interpellato dai media statunitensi, l’informatico Stephen Wolfram spiega che i grandi modelli linguistici (LLM) come ChatGPT funzionano in modo molto semplice: creano e addestrano una rete neurale per creare testi alimentati da un ampio campione di testi presenti sul web, come libri, biblioteche digitali e così via.

Leggi anche:

Se si chiede a un LLM di imitare Shakespeare, produrrà un testo con una struttura a pentametri giambici. O se gli si chiede di scrivere nello stile di qualche scrittore di fantascienza, imiterà le caratteristiche più generali di quell’autore.

“Gli esperti sanno da anni che gli LLM sono fantastici, creano cose immaginarie, possono essere utili, ma sono sistemi davvero stupidi e non fanno paura”, ha dichiarato Yann Lecun, chief AI scientist di Meta, consultato da The Atlantic.

Il media statunitense osserva che lo sviluppo dell’IA si sta concentrando nelle grandi aziende e nelle start-up sostenute da capitali di società di investimento tecnologico.

Il fatto che questi sviluppi siano concentrati nelle aziende piuttosto che nelle università e nei governi può migliorare l’efficienza e la qualità di questi sistemi di IA.

“Non ho dubbi che l’IA si svilupperà più velocemente all’interno di Microsoft, Meta e Google che, ad esempio, nell’esercito statunitense”, afferma Derek Thompson.

Tuttavia, il media statunitense avverte che le aziende potrebbero commettere degli errori cercando di immettere rapidamente sul mercato un prodotto non all’altezza. Ad esempio, il chatbot Bing (Microsoft) è stato aggressivo con le persone che lo hanno utilizzato al momento del lancio. Ci sono altri esempi di errori di questo tipo, come il chatbot di Google, che è stato un fallimento perché lanciato in fretta e furia.

Leggi anche:

Il filosofo Toby Ord avverte che i progressi della tecnologia AI non tengono il passo con gli sviluppi etici del loro utilizzo. Interrogato da The Atlantic, Ord ha paragonato l’uso dell’IA a “un prototipo di motore a reazione che può raggiungere velocità mai viste prima, ma senza corrispondenti miglioramenti nella guida e nel controllo”. Per il filosofo, è come se l’umanità si trovasse a bordo di un potente jet a Mach 5, ma senza il manuale per governare l’aereo nella direzione desiderata.

Sul timore che le IA siano l’inizio della fine della razza umana, il media sottolinea che sistemi come Bing e ChatGPT non sono buoni esempi di intelligenze artificiali. Ma possono mostrarci la nostra capacità di sviluppare una macchina superintelligente.

Altri temono che i sistemi di intelligenza artificiale non siano in linea con le intenzioni dei loro progettisti. A questo proposito, molti studiosi di etica delle macchine hanno messo in guardia da questo potenziale problema.

“Come ci si assicura che l’IA che si costruisce, che potrebbe essere molto più intelligente di qualsiasi persona mai esistita, sia allineata con gli interessi dei suoi creatori e della razza umana?”, si chiede The Atlantic.

E il grande timore per la domanda precedente: un’IA superintelligente potrebbe essere un serio problema per l’umanità.

Un’altra domanda che preoccupa gli esperti è posta dai media statunitensi: “Abbiamo più da temere da un’IA non allineata o da un’IA allineata con gli interessi dei cattivi attori?”.

Una possibile soluzione è quella di sviluppare una serie di leggi e regolamenti che garantiscano che l’IA sviluppata sia allineata con gli interessi dei suoi creatori e che questi interessi non danneggino l’umanità. Se un’IA viene sviluppata al di fuori di queste leggi, sarebbe illegale.

Tuttavia, ci saranno attori o regimi con interessi illeciti che potranno sviluppare IA con comportamenti pericolosi.

Leggi anche:

Un’altra questione che solleva interrogativi è: quanto dovrebbe cambiare l’istruzione in relazione allo sviluppo di questi sistemi di IA?

Lo sviluppo di questi sistemi di IA serve anche ad altri settori, come la finanza o la programmazione. In alcune aziende, alcuni sistemi di IA superano gli analisti quando si tratta di scegliere i titoli migliori.

“ChatGPT ha dimostrato buone capacità di redazione di lettere di richiesta, memorie e giudizi sommari, e persino di domande per il controinterrogatorio”, ha dichiarato Michael Cembalest, Presidente di Market and Investment Strategy di J.P. Morgan Asset Management.

“I LLM non sostituiscono gli avvocati, ma possono aumentarne la produttività, soprattutto se per la loro formazione si utilizzano banche dati legali come Westlaw e Lexis”, ha aggiunto Cembalest.

Da qualche decennio si dice che l’IA sostituirà i lavoratori di alcune professioni, come i radiologi. Tuttavia, l’uso dell’IA in radiologia rimane un complemento per i medici piuttosto che una sostituzione. Come in radiologia, queste tecnologie dovrebbero servire come complemento per migliorare la vita delle persone.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Sei d’accordo con questa visione catastrofica legata all’abuso dell’intelligenza artificiale? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x