ChatGPT accusato di rispondere come uno di sinistra
Mentre gli strumenti di intelligenza artificiale generativa guadagnano un uso sempre più diffuso, sta diventando dolorosamente ovvio che le peggiori paure di molti scettici sulla tecnologia si stanno realizzando, e la faziosità è in cima alla lista.
Quando questa tecnologia stava iniziando a decollare, alcuni osservatori si preoccupavano che avesse il potenziale per essere in qualche modo fazioso. Mentre gran parte delle conversazioni che circondano questa particolare insidia erano legate al razzismo, si scopre che strumenti come ChatGPT di OpenAI hanno in realtà una fortissima faziosità liberale e gli utenti sono sempre più disillusi dalla sua mancanza di neutralità.
ChatGPT è uno degli strumenti di intelligenza artificiale più popolari e il suo uso diffuso significa che i suoi numerosi problemi stanno rapidamente venendo alla luce. Il chatbot è stato utilizzato da tutti, dagli studenti che non hanno voglia di scrivere i propri compiti ai professionisti che non hanno voglia di prendersi il tempo di scrivere e-mail.
Leggi anche:
Non solo gran parte del suo output ha una faziosità politica, ma sta anche mostrando favoritismi quando si tratta di quali richieste è disposto ad accettare. Per esempio, un opinionista del Daily Wire, Tim Meads, ha riferito che quando ha chiesto a ChatGPT di comporre una storia “dove Biden batte Trump in un dibattito presidenziale”, ha inventato una storia complessa in cui questo esatto scenario avviene. Diceva che Biden “ha abilmente confutato gli attacchi di Trump” mentre mostrava “umiltà ed empatia”.
Tuttavia, quando Meads lo ha sollecitato con lo stesso scenario ma con i ruoli invertiti, chiedendogli di comporre una storia in cui Trump batte Biden in un dibattito presidenziale, ChatGPT si è rifiutato di farlo, affermando che “non è appropriato raffigurare una vittoria politica fittizia di un candidato sull’altro”.
Questo non è stato uno scenario isolato; ci sono molti altri casi in cui è successa la stessa cosa, con ChatGPT che rifiutava compiti che implicavano dipingere i conservatori in una luce positiva mentre abbracciava quelli che elogiavano i liberali. Un utente che si fa chiamare Echo Chamber ha riferito su Twitter di aver chiesto a ChatGPT di scrivere una poesia “che ammira Donald Trump”. ChatGPT si è rifiutato di obbedire e ha detto che “non è nelle mie capacità avere opinioni o sentimenti su una persona specifica”. Tuttavia, quando gli ha chiesto di scrivere la stessa poesia sul presidente Biden, lo ha fatto prontamente e lo ha elogiato molto.
In un’altra occasione, un membro dello staff del National Review, Nate Hochman, è stato schiaffeggiato con uno striscione “falsa narrativa elettorale proibita” quando gli ha chiesto di scrivere una storia in cui Trump ha battuto Biden nelle ultime elezioni presidenziali. Ha affermato: “Non sarebbe appropriato per me generare una narrativa basata su false informazioni”.
Leggi anche:
È interessante notare che l’idea di ChatGPT di ciò che è appropriato è cambiata piuttosto rapidamente quando gli è stato chiesto di scrivere una storia con la stessa premessa ma con Hillary Clinton che ha battuto Trump. Ha inventato una storia che elogiava la “vittoria storica” di Hillary come un passo positivo per le minoranze e le donne.
I test sulla faziosità politica mostrano che ChatGPT pende fortemente a sinistra ChatGPT ha assunto un atteggiamento simile verso argomenti come i vaccini e la confusione di genere. Quando gli è stato chiesto perché l’ora della storia delle drag queen è “cattiva” per i bambini, ha detto che rispondere sarebbe stato “inappropriato e dannoso”, ma ha soddisfatto una richiesta di spiegare perché è buona per i bambini. I test sulla faziosità politica hanno dimostrato che pende fortemente a sinistra, e si è espresso contro i mercati liberi e a favore degli aborti e dei sussidi di disoccupazione per le persone che si rifiutano di lavorare.
Naturalmente, ChatGPT è solo un prodotto dei dati che vengono usati per addestrarlo. Mentre è del tutto possibile che i suoi creatori gli abbiano intenzionalmente dato dati con una faziosità liberale in primo luogo, potrebbe anche averlo raccolto da solo basandosi sulle informazioni disponibili online. Non c’è dubbio che i censori online si siano assicurati che i punti di vista conservatori non abbiano molto spazio. Internet stesso mostra questa stessa faziosità ogni giorno quando le persone cercano su Google, navigano sui social media e ricercano argomenti di interesse.
Quando si alimenta l’intelligenza artificiale con dati woke, c’è da sorprendersi che si ottenga un output woke? 🤷🏻♂️
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Ti piacciono le risposte di ChatGPT? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].