Xbox aggiunge l’intelligenza artificiale per monitorare le violazioni dei giocatori
Questi sistemi segnalano automaticamente i contenuti da sottoporre a revisione umana, senza che sia necessaria una segnalazione da parte del lettore.
Negli ultimi anni, l’industria dei videogiochi ha sperimentato un notevole aumento di giocatori e interazioni online. Con l’aumento di questa popolarità, è diventato sempre più importante garantire un ambiente di gioco sicuro e privo di contenuti inappropriati. In risposta a questa esigenza, Xbox, la celebre piattaforma di giochi di Microsoft, ha annunciato l’implementazione di sistemi avanzati di intelligenza artificiale per combattere le cattive pratiche nei videogiochi.
Nel suo terzo rapporto di trasparenza, Xbox ha mostrato come stia utilizzando l’intelligenza artificiale per migliorare la moderazione e l’identificazione di contenuti inappropriati. Grazie all’impiego di sistemi automatizzati e strumenti di IA, Xbox è in grado di marcare automaticamente i contenuti per la revisione umana, senza che i giocatori debbano segnalare specificamente i problemi riscontrati.
Durante il primo semestre del 2023, l’87% delle azioni di moderazione sono state attivate automaticamente grazie a queste innovative tecnologie. Ciò dimostra come l’intelligenza artificiale stia giocando un ruolo essenziale nel garantire un ambiente di gioco più sicuro e protetto per milioni di utenti che si connettono quotidianamente alla piattaforma Xbox.
Leggi anche:
Tra gli strumenti chiave menzionati nel rapporto, spicca Community Sift, una funzione di moderazione sviluppata da TwoHat, una filiale di Microsoft. Questo strumento ha già elaborato oltre 36 milioni di segnalazioni di giocatori in 22 lingue diverse, consentendo di identificare i contenuti che richiedono l’intervento di un moderatore umano. Nonostante l’implementazione di questo sistema di filtraggio, il numero di azioni “reattive” (ovvero quelle effettuate in risposta alle segnalazioni dei giocatori) non è aumentato significativamente. Ciò potrebbe essere attribuito all’aumento delle azioni “proattive” messe in atto da Microsoft prima che i giocatori segnalino un problema specifico.
Per rafforzare ulteriormente queste azioni proattive, Microsoft utilizza il modello di intelligenza artificiale Turing Bletchley v3, che analizza automaticamente tutte le immagini generate dagli utenti sulla piattaforma Xbox. Grazie a questo sistema, le immagini vengono confrontate con gli standard comunitari stabiliti dall’azienda, e se vengono rilevati contenuti sospetti, vengono inviati per una revisione umana. Nella prima metà dell’anno, sono state bloccate 4,7 milioni di immagini, rappresentando un aumento del 39% rispetto ai sei mesi precedenti.
Oltre alla moderazione dei contenuti, Xbox sta anche affrontando il problema delle “cattive pratiche” da parte di utenti che includono comportamenti di cheating, spamming e profili che compromettono l’esperienza di gioco. Nel primo semestre del 2023, Microsoft ha eliminato 16,3 milioni di questi account, registrando un aumento del 276% rispetto allo stesso periodo dell’anno precedente. La maggior parte di queste azioni preventive viene intrapresa prima che i giocatori abbiano la possibilità di segnalarle, contribuendo così a migliorare la sicurezza e la qualità dell’esperienza su Xbox.
Leggi anche:
L’implementazione di queste misure proattive ha dimostrato la loro efficacia nella moderazione dei contenuti. Nel corso dei primi sei mesi del 2023, sono state effettuate oltre 17,09 milioni di azioni proattive, rappresentando l’87% del totale delle azioni intraprese in quel periodo. Inoltre, sono state bloccate più di 4,7 milioni di contenuti tossici prima che raggiungessero i giocatori, segnando un aumento del 39% rispetto al periodo precedente.
L’impegno di Xbox nel garantire un ambiente di gioco sicuro e piacevole per i suoi utenti è evidente. Con l’utilizzo dell’intelligenza artificiale e di strumenti avanzati di moderazione, la piattaforma mira a creare esperienze di gioco più sicure e gratificanti per tutti i giocatori. L’obiettivo è quello di fornire un ambiente in cui i giocatori possano divertirsi e interagire in modo positivo, evitando situazioni di abuso, molestie o contenuti inappropriati.
Con l’implementazione di sistemi automatizzati di IA e strumenti di moderazione, Xbox dimostra il suo impegno per il miglioramento continuo della sicurezza e della qualità dell’esperienza di gioco. La combinazione di tecnologie all’avanguardia e l’intervento umano nella revisione dei contenuti consente di mantenere un ambiente di gioco sano e privo di cattive pratiche.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa pratica di Xbox? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].