ChatGPT non è affidabile come strumento per le query urologiche, mostra una nuova ricerca

Blog

CasaCasa / Blog / ChatGPT non è affidabile come strumento per le query urologiche, mostra una nuova ricerca

Aug 10, 2023

ChatGPT non è affidabile come strumento per le query urologiche, mostra una nuova ricerca

Sebbene nuovi studi continuino a pubblicizzare i successi dell’intelligenza artificiale nell’interpretare i dati medici e nell’offrire consigli, sembra che manchi almeno una categoria medica importante per

Sebbene nuovi studi continuino a pubblicizzare i successi dell’intelligenza artificiale nell’interpretare i dati medici e nell’offrire consigli, sembra che manchi almeno una categoria medica importante per gli anziani: l’urologia.

Quando venivano poste domande mediche comuni ai pazienti che potevano interrogare un medico in merito alle complicazioni urinarie, il popolare chatbot ChatGPT si dimostrava ben al di sotto degli standard clinici e, in molti casi, le informazioni fornite non erano affatto accurate.

Questa è la prima volta che ChatGPT viene valutato specificatamente per l’urologia, affermano i ricercatori.

Ma la possibilità che l’intelligenza artificiale offra informazioni sanitarie imprecise o distorte è stata una delle principali preoccupazioni da quando l’uso della tecnologia è esploso all’inizio di quest’anno.

Forse per questo motivo, anche i pazienti rimangono preoccupati per gli usi clinici dell’IA.

Alcune delle condizioni più comuni degli anziani che portano a complicazioni urinarie includono l'ingrossamento della prostata (i sintomi sono presenti in circa la metà degli uomini di età pari o superiore a 75 anni) e la demenza. Le stesse infezioni del tratto urinario possono anche portare a ulteriori complicazioni negli anziani come delirio o frequenza cardiaca anormale.

Nello studio di urologia, condotto presso il Dipartimento di Urologia dell'Università della Florida, a Gainesville, ChatGPT non solo ha spesso fornito informazioni imprecise, come raccomandazioni terapeutiche errate, ma lo ha fatto con “sicurezza”, hanno affermato i ricercatori.

Altri risultati sono stati altrettanto schiaccianti: il chatbot ha offerto risposte che i ricercatori hanno considerato “appropriate” solo il 60% delle volte.

"ChatGPT interpreta erroneamente le linee guida sull'assistenza clinica, ignora importanti informazioni contestuali, nasconde le sue fonti e fornisce riferimenti inappropriati", hanno concluso i ricercatori.