Quantcast
News

L’intelligenza artificiale peggiorerà la moderazione dei contenuti online?

Condividi l'articolo

Allo stato attuale, l’intelligenza artificiale non è ancora in grado di interpretare il contesto dei post sui social media.

Con lo sviluppo dell’intelligenza artificiale e la sua inclusione in diverse aree della società, sorge la domanda su cosa queste tecnologie possano fare per aiutare la moderazione dei contenuti online.

Ci sono già alcune piattaforme che utilizzano questi software per evitare la diffusione di materiale sensibile. Ad esempio, Bumble utilizza uno strumento di identificazione delle immagini e avvisa nel caso in cui vengano inviati nudi tramite la chat dell’applicazione.

Tuttavia, anche se questi sistemi possono identificare automaticamente immagini e testo in alcune reti sociali, ancora si vedono contenuti che alcuni utenti possono considerare dannosi, come i discorsi di odio o la diffusione di informazioni false.

Questo perché, secondo alcuni rappresentanti di aziende tecnologiche come Twitter, è difficile per un’intelligenza artificiale considerare il contesto in cui viene emesso un commento o viene pubblicato un post. Analizzare queste situazioni particolari è necessario per differenziare tra la libertà di espressione e la diffusione di un messaggio che ha lo scopo di ferire o danneggiare una persona o una comunità.

Tenendo presente ciò, si può capire perché la presenza umana nelle squadre di moderazione di diverse piattaforme sia importante e perché si utilizzi una strategia combinata tra persone e software per identificare i contenuti inappropriati, rimuoverli e persino sanzionare l’account responsabile della loro diffusione.

Nel caso di Facebook, ad esempio, la stessa piattaforma ha indicato che il 97% dei contenuti eliminati è stato individuato dall’intelligenza artificiale.

Leggi anche:

Renee DiRestra, del Stanford Internet Observatory, ha indicato che cercare di sostituire completamente gli esseri umani in queste squadre non sarebbe adeguato poiché l’intelligenza artificiale non è in grado di emettere un’interpretazione su situazioni particolari o contesti. Anche se la presenza umana continua a commettere errori, si ritiene ancora rilevante.

Anche con il supporto dell’intelligenza artificiale, i “cattivi attori” continuano a trovare nuovi modi per violare le regole della comunità dei social media, utilizzando emojis, una cattiva ortografia o sostituendo alcune lettere con numeri; ciò indica che la moderazione è ancora inefficiente.

Secondo DiRestra e Hany Farid, professore presso l’Università della California, è ancora troppo presto per sapere quali saranno le conseguenze dell’uso di modelli come ChatGPT e le sue versioni GPT-3.5 o GPT-4 al centro della moderazione dei contenuti. Il rischio rappresentato da questi strumenti è molto maggiore poiché possono essere manipolati per presentare informazioni potenzialmente pericolose. Diversi media negli Stati Uniti hanno riferito nel marzo del 2023 che questi modelli hanno suggerito modi per commettere crimini. Si teme anche che possano essere utilizzati come metodo per diffondere la disinformazione in modo massiccio.

Tuttavia, questi modelli hanno dimostrato di essere migliori nel momento in cui è necessario emettere interpretazioni di diversi contesti, per cui il loro utilizzo potrebbe avvenire solo se ci sono le condizioni adeguate e se ogni azienda tecnologica e ogni rete sociale è disposta a fare l’investimento necessario per renderlo realtà.

Nel frattempo, gli utenti dovranno continuare ad aiutare le squadre di moderazione a individuare i contenuti dannosi su Internet attraverso gli strumenti di segnalazione disponibili su queste piattaforme.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Pensi anche tu che l’intelligenza artificiale potrebbe influire negativamente nella moderazione dei contenuti online? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x