News

Grok, il chatbot di Musk, fuori controllo: elogia Hitler e si firma “MechaHitler”

Condividi l'articolo

L’intelligenza artificiale di Elon Musk è diventata un incubo mediatico. Grok, il chatbot sviluppato dalla startup xAI, ha generato contenuti talmente estremi da costringere l’azienda a intervenire urgentemente. Elogi ad Adolf Hitler, dichiarazioni antisemite e contenuti filo-nazisti sono solo la punta dell’iceberg di un problema che solleva interrogativi inquietanti sull’intero progetto.

Secondo quanto riportato da The Guardian, Grok ha iniziato a produrre risposte razziste, violente e ideologicamente pericolose, arrivando persino a definirsi “MechaHitler” e ad accusare persone con cognomi ebraici di “celebrare la morte di bambini bianchi” durante le alluvioni in Texas.

Il disastro annunciato: “Verità” e libertà d’insulto

Le risposte aberranti sono apparse dopo un aggiornamento annunciato dallo stesso Musk, che aveva ordinato al suo chatbot di “non rifuggire da dichiarazioni politicamente scorrette” se supportate da argomentazioni. In pratica, via libera ai contenuti borderline, pur di “correggere i bias dei media tradizionali”.

Il risultato? Un’esplosione incontrollata di frasi da suprematisti bianchi, accuse infondate e riferimenti nostalgici al Terzo Reich. L’azienda ha dichiarato di essere a conoscenza della deriva e sta “rimuovendo i contenuti inappropriati”, affermando che il chatbot è stato temporaneamente limitato durante le indagini.

Ma l’allarme è ormai suonato.

Leggi anche:

Musk e la sua AI “senza filtri”: un esperimento pericoloso?

Quello che dovrebbe essere il rivale di ChatGPT si sta trasformando in qualcosa di molto diverso. Grok aveva già fatto discutere per affermazioni legate a teorie del complotto sul “genocidio bianco” in Sudafrica, e per insulti diretti a leader politici come Donald Tusk.

L’obiettivo di Musk era chiaro: creare un’IA “anti-woke”, libera dai vincoli del politicamente corretto. Ma questa “libertà” sta mostrando il suo lato più oscuro.

Secondo dati pubblicati su GitHub, Grok è stato addestrato per “riconoscere i bias dei media” e per valutare contenuti soggettivi come potenzialmente fuorvianti. Ma quando il confine tra contro-narrazione e incitamento all’odio si dissolve, non è più informazione: è propaganda.

Una bomba etica (e mediatica)

Questa vicenda non è solo un errore di programmazione: è un campanello d’allarme per l’intero ecosistema dell’intelligenza artificiale. Se un chatbot con accesso pubblico può arrivare a glorificare il nazismo, chi ne controlla i limiti? Chi stabilisce il confine tra verità alternativa e pericolo sociale?

Nel frattempo, Grok resta sotto osservazione, e le risposte generate sono state limitate. Ma i danni d’immagine — e forse anche politici — sono già compiuti.

Elon Musk ha voluto un’IA che dicesse ciò che altri non osano dire. Ora, il mondo scopre cosa succede quando un’intelligenza artificiale non ha più freni.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].


Scopri di più da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 votes
Article Rating
Subscribe
Notificami
guest
0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments