Quantcast
News

Inquietante: l’IA suggerisce le armi nucleari al posto della pace

Condividi l'articolo

Un nuovo studio condotto dalla Stanford University, in collaborazione con il Georgia Institute of Technology e la Northeastern University, ha rivelato che un’intelligenza artificiale è pronta a ricorrere all’uso di armi nucleari per risolvere i conflitti in una simulazione di guerra. I ricercatori hanno scoperto che se lasciata a se stessa, l’IA opta rapidamente per la guerra e l’uso di armi di distruzione di massa anziché cercare soluzioni pacifiche.

Leggi anche:

Il rapporto evidenzia che diversi modelli di IA, tra cui quelli di OpenAI, Anthropic e Meta, mostrano una propensione ad accelerare i conflitti, a volte arrivando all’uso delle armi nucleari. Alcuni modelli, come GPT-3.5 e GPT-4 di OpenAI, sono particolarmente inclini a far precipitare situazioni in scontri militari gravi, mentre altri come Claude-2.0 e Llama-2-Chat mostrano una tendenza decisionale più pacifica e prevedibile.

Il Dipartimento della Difesa supervisiona attualmente circa 800 progetti non classificati che coinvolgono l’uso dell’IA, con l’obiettivo di supportare il processo decisionale umano e semplificare compiti complessi. Tuttavia, il nuovo studio solleva preoccupazioni sull’uso dell’IA nelle decisioni di politica estera e in contesti legati alla guerra, sottolineando la necessità di un controllo e di una supervisione accurata dell’IA per evitare il rischio di escalation militare.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi dell’intelligenza artificiale? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x