News

Google abbandona l’etica dell’IA: via i divieti su armi e sorveglianza

Condividi l'articolo

In una mossa che ha scatenato un’ondata di critiche, Google ha rimosso silenziosamente una promessa fondamentale dalle sue linee guida etiche sull’intelligenza artificiale: il divieto di utilizzare l’IA per armi o sorveglianza. La decisione, annunciata martedì, segna un allontanamento dall’impegno preso nel 2018 e ha sollevato preoccupazioni sul ruolo del gigante tecnologico nella militarizzazione dell’IA e nella sorveglianza di massa.

La svolta di Google: dalla trasparenza all’ambiguità

La politica aggiornata di Google ora enfatizza lo sviluppo “responsabile” dell’intelligenza artificiale, allineandosi ai “principi ampiamente accettati del diritto internazionale e dei diritti umani”. Tuttavia, la rimozione dei divieti espliciti su armi e sorveglianza ha lasciato molti perplessi. Matt Mahmoudi, consulente per l’IA e i diritti umani di Amnesty International, ha condannato la decisione, affermando che “le tecnologie basate sull’intelligenza artificiale potrebbero alimentare sistemi di sorveglianza e di uccisioni letali su vasta scala, portando a violazioni di massa del diritto alla privacy.”

Un passato controverso: dal Progetto Maven alla collaborazione militare

Questa non è la prima volta che Google si trova al centro di polemiche per il suo coinvolgimento in progetti militari. Nel 2018, l’azienda ha partecipato al Progetto Maven, un’iniziativa del Pentagono che utilizzava l’IA per analizzare i filmati dei droni e identificare obiettivi militari. La collaborazione ha scatenato proteste interne, con oltre 3.000 dipendenti che hanno firmato una lettera aperta chiedendo il ritiro dal progetto. Google ha poi abbandonato il Progetto Maven e introdotto i suoi principi etici sull’IA, che includevano il divieto esplicito di usare l’IA per armi.

Nonostante ciò, Google ha continuato a collaborare con l’esercito statunitense su altri progetti, tra cui il cloud computing e la risposta ai disastri. Recenti rapporti del Washington Post hanno rivelato che Google ha fornito tecnologia AI all’esercito israeliano durante la guerra tra Israele e Gaza, alimentando ulteriori preoccupazioni sul suo ruolo nei conflitti globali.

Leggi anche:

Reazione interna: i dipendenti di Google insorgono

La decisione di abbandonare i principi etici ha provocato indignazione anche all’interno di Google. Parul Koul, ingegnere informatico e presidente dell’Alphabet Workers Union, ha dichiarato a Wired: “È profondamente preoccupante vedere Google abbandonare il suo impegno per l’uso etico della tecnologia AI senza il contributo dei suoi dipendenti o del pubblico.”

Anche Margaret Mitchell, ex co-responsabile del team di IA etica di Google, ha espresso preoccupazione, avvertendo che la rimozione della clausola sul “danno” potrebbe aprire la porta a tecnologie “direttamente in grado di uccidere le persone.”

La corsa globale per il predominio dell’IA

I dirigenti di Google hanno giustificato il cambiamento di politica come una risposta al “paesaggio geopolitico sempre più complesso”. In un post sul blog, James Manyika, vicepresidente senior, e Demis Hassabis, CEO di Google DeepMind, hanno sostenuto che le democrazie dovrebbero guidare lo sviluppo dell’IA, basandosi su *“valori fondamentali come libertà, uguaglianza e rispetto dei diritti umani.”

Tuttavia, i critici rimangono scettici. Anna Bacciarelli, ricercatrice senior di IA presso Human Rights Watch, ha definito la decisione “incredibilmente preoccupante”, sottolineando la necessità di regolamenti vincolanti piuttosto che di principi volontari. “Il fatto che un leader mondiale del settore abbandoni i limiti autoimposti rappresenta un cambiamento preoccupante, in un momento in cui abbiamo più che mai bisogno di una leadership responsabile,” ha affermato.

Conclusione: Google ha perso la sua bussola morale?

La decisione di Google di abbandonare i suoi principi etici sull’IA segna una svolta preoccupante nel rapporto tra l’industria tecnologica e le applicazioni militari e di sorveglianza. Prioritizzando la competizione geopolitica e i contratti governativi rispetto alle tutele etiche, Google rischia di contribuire agli stessi danni che un tempo cercava di prevenire.

Mentre l’intelligenza artificiale continua a evolversi a ritmo vertiginoso, molti temono che l’assenza di regolamenti solidi e meccanismi di responsabilità lasci l’umanità vulnerabile all’uso improprio di questa potente tecnologia. Per un’azienda che un tempo si ispirava al motto “Don’t be evil”, questa mossa solleva una domanda cruciale: Google ha perso la sua bussola morale?

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.


Scopri di più da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 votes
Article Rating
Subscribe
Notificami
guest


0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments