Google nei guai: l’attivista Robby Starbuck fa causa per diffamazione causata dall’IA

Una causa senza precedenti scuote il mondo della tecnologia. L’attivista conservatore Robby Starbuck ha citato in giudizio Google, accusando i suoi strumenti di intelligenza artificiale di aver generato e diffuso false accuse di crimini gravi — tra cui violenza sessuale e omicidio — attraverso articoli di notizie completamente inventati.
L’azione legale, depositata presso la Corte Superiore del Delaware, chiede oltre 15 milioni di dollari di risarcimento e apre un fronte pericoloso per i giganti dell’IA: chi è responsabile quando una macchina diffonde calunnie?
Le accuse: articoli falsi, fonti inventate e danni alla reputazione
Secondo quanto denunciato da Starbuck, i chatbot di Google — inclusi Bard, Gemini e Gemma — avrebbero creato notizie false che lo collegavano a crimini orribili e gruppi estremisti.
In alcuni casi, l’intelligenza artificiale avrebbe persino generato URL inesistenti, imitando testate autorevoli come Rolling Stone, Newsweek e New York Post.
Un esempio assurdo? Uno di questi testi lo descriveva come “persona di interesse in un caso di omicidio quando aveva appena due anni”.
Un altro sosteneva falsamente che fosse stato “accusato in modo credibile di violenza sessuale” e lo collegava ai voli privati di Jeffrey Epstein.
“La loro IA mi ha accusato dei crimini più orribili,” ha dichiarato Starbuck. “Persone sconosciute mi hanno affrontato in pubblico, convinte che quelle bugie fossero vere.”
Google si difende: “colpa delle allucinazioni dell’IA”
Da parte sua, Google riconosce che il problema esiste.
Un portavoce ha dichiarato al New York Post:
“Se sei abbastanza creativo, puoi chiedere a un chatbot di dire qualcosa di fuorviante.”
L’azienda attribuisce gli errori alle cosiddette “hallucinations”, ovvero le risposte inventate che i modelli linguistici di grandi dimensioni (LLM) possono generare quando non trovano dati affidabili.
Ma Starbuck sostiene che Google fosse a conoscenza del problema da anni, senza aver fatto nulla per impedire la diffusione di contenuti falsi e diffamatori.

Leggi anche:
Un caso che potrebbe cambiare la legge sull’IA
Gli esperti legali considerano questa causa una pietra miliare.
Per la prima volta, un tribunale americano dovrà stabilire se un’azienda tecnologica può essere ritenuta responsabile delle bugie generate dai propri algoritmi.
Il caso arriva in un momento di forte pressione politica sul settore. Dopo gli scandali dei deepfake vocali di Joe Biden durante le primarie del New Hampshire e del finto speciale comico di George Carlin creato senza autorizzazione, cresce la richiesta di leggi che regolino la disinformazione automatizzata.
Se la corte dovesse accogliere la tesi di Starbuck, il verdetto potrebbe cambiare per sempre la responsabilità legale dell’intelligenza artificiale — imponendo ai colossi come Google, OpenAI e Meta di introdurre controlli severi su ciò che le loro IA producono.
Google e le vecchie polemiche sull’IA “woke”
Non è la prima volta che Google si trova al centro di un terremoto legato all’IA.
Nel 2023, la società aveva temporaneamente disattivato la funzione di generazione immagini di Gemini, dopo che il modello aveva prodotto figure storicamente inaccurate, come “vichinghi neri” o “soldati nazisti razzialmente diversi” — errori che molti commentatori hanno definito segno di bias ideologico.
La vicenda di Starbuck riaccende il dibattito sul ruolo dell’intelligenza artificiale nel modellare la percezione pubblica, mettendo in discussione se l’IA riflette i pregiudizi umani o li amplifica.
“Non è solo una battaglia personale, è una questione di verità”
Starbuck, già noto per le sue campagne contro le politiche aziendali di diversità ed equità (DEI), afferma che questa causa non riguarda la politica, ma la libertà individuale e la responsabilità tecnologica.
“Nessuno, indipendentemente dalle proprie idee, dovrebbe subire una campagna di diffamazione generata da una macchina,”
ha detto. “Voglio vincere non solo per me, ma per garantire un futuro in cui l’IA serva la verità, non le bugie.”
Verso un’era di trasparenza o di censura algoritmica?
La sfida lanciata da Starbuck a Google segna un punto di svolta nel rapporto tra IA generativa, reputazione e verità digitale.
Da un lato, la causa potrebbe spingere verso una maggiore trasparenza e meccanismi di controllo; dall’altro, rischia di aprire la strada a un nuovo tipo di censura preventiva dove le aziende, per paura di denunce, limitano drasticamente la libertà dei chatbot.
Qualunque sia l’esito, questo processo diventerà un precedente storico nel confronto tra libertà di informazione e responsabilità artificiale.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Telegram: t.me/guruhitech
- X (Twitter): x.com/guruhitech1
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].
Scopri di più da GuruHiTech
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.
