Le raccomandazioni mediche di ChatGPT ti possono uccidere
No, il chatbot di OpenAI non può in nessun caso sostituirsi a un dottore
Un recente studio condotto dalla Long Island University di New York ha messo in luce l’inaffidabilità di ChatGPT nel fornire informazioni mediche accurate. I ricercatori hanno chiesto a ChatGPT di rispondere a 39 domande relative a farmaci ed effetti sulla salute, ma solo 10 di queste hanno ricevuto risposte considerate adeguate secondo i criteri di professionisti umani.
Lo studio ha evidenziato che il 74,3% delle risposte fornite da ChatGPT non ha superato il filtro di conoscenza degli specialisti della salute. Inoltre, in 8 casi su 10, ChatGPT ha citato fonti inesistenti per sostenere le proprie affermazioni.
Questi risultati sollevano preoccupazioni sulla potenziale pericolosità di affidarsi a ChatGPT per informazioni mediche. I ricercatori sottolineano l’importanza di verificare sempre le informazioni con fonti affidabili, come il proprio medico o un farmacista.
Errori nelle informazioni sui trattamenti per il cancro
Un altro studio, condotto dal Brigham and Women’s Hospital affiliato alla Harvard Medical School, ha rilevato errori nelle risposte di ChatGPT relative al cancro e al suo trattamento. I ricercatori hanno scoperto che almeno il 12,5% delle informazioni fornite da ChatGPT era inventata.
Leggi anche:
Questo dato è particolarmente preoccupante considerando le potenziali conseguenze di tali errori sulla salute dei pazienti. I ricercatori sottolineano l’importanza di non considerare le risposte di ChatGPT come una guida per il trattamento e la diagnosi delle malattie.
L’importanza di affidarsi a fonti affidabili
I risultati di questi studi evidenziano la necessità di essere cauti nell’utilizzare ChatGPT per ottenere informazioni mediche. È fondamentale verificare sempre le informazioni con fonti affidabili, come il proprio medico o un farmacista, prima di prendere decisioni sulla propria salute.
Conclusioni
ChatGPT è uno strumento potente che può essere utilizzato per ottenere informazioni su una vasta gamma di argomenti, ma mai e poi mai lo utilizzerei per domande relative a farmaci e altre robe di natura medico-sanitaria. È ancora troppo presto per affidarsi a questi dottori virtuali, ma il tempo vola in fretta e chissà, forse tra qualche anno potrà davvero tornarci utili anche in questo senso.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
In generale, ti fidi di ChatGPT o degli altri chatbot AI? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].