Facebook di nuovo sotto accusa. Ecco perché.
“Ha impedito la moderazione delle pubblicazioni razziste per non deludere i conservatori”.
L’accusa arriva dal Washington Post, che ha consultato documenti interni alla casa madre Meta per ricostruire la vicenda.
Gli algoritmi di moderazione di Facebook lavorano ogni giorno sui social media per arginare la violenza verbale e l’incitamento all’odio, ma non sono perfetti. Qualsiasi modifica apportata a questo software ha un impatto sulla sua efficacia contro determinati tipi di violazioni; tuttavia, secondo quanto emerso da alcuni documenti interni ai gestori del social network, alcune modifiche che avrebbero tutelato meglio determinate categorie di utenti in quanto appartenenti a determinate etnie e religioni o membri della comunità LGBTQ+ sono state rifiutate dai gestori perché rischiavano di infastidire i soci conservatori dell’agenzia.
Lo riferisce il Washington Post, che ha visionato i documenti in questione e ha parlato con alcuni dipendenti del gruppo per ricostruire la vicenda, che risale al 2019. In questi mesi i ricercatori di Facebook hanno scoperto che i sistemi di moderazione automatica dei social network tendeva ad intervenire più facilmente sulle pubblicazioni pubblicate se l’oggetto dell’odio e della violenza verbale espressa erano i bianchi, mentre non interveniva con la stessa tempestività in presenza di insulti o minacce formulati con terminologia specifica relativa ad altre categorie di utenti o individui.
Leggi anche:
La soluzione per i ricercatori è stata semplice: ricalibrare l’algoritmo per intervenire in modo più deciso contro l’odio verso i neri, i musulmani, gli ebrei, i membri della comunità LGBTQ+ e le minoranze etniche. Tuttavia, il management del social network non è d’accordo: secondo la ricostruzione, i dirigenti del gruppo Meta, tra cui il VP Joel Kaplan, hanno rifiutato l’autorizzazione, ritenendo troppo estreme le modifiche proposte e temendo che la novità venisse vista come un tentativo di favorire queste categorie di persone. Nei documenti trapelati sembra anche che una delle preoccupazioni di Facebook fosse che i partner conservatori dell’azienda non sarebbero stati d’accordo con la decisione.
Il post più visto su Facebook è una bufala sui vaccini, ma il social network ha cercato di nasconderlo.
Per Facebook il progetto da cui sono nate le osservazioni dei ricercatori aveva l’unico scopo di “capire che tipo di violenza verbale la nostra tecnologia fosse in grado di intercettare”, mentre il social network si è adoperato per combattere l’odio razziale, religioso e diretto verso le persone LGBTQ. . + persone. Le rivelazioni del Washington Post sono però solo le ultime di una lunga serie, e mettono in luce quanto il problema della moderazione dei contenuti sulle piattaforme globali sia ancora lontano dall’essere risolto.
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa vicenda? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].