L’uso di chatbot potrebbe mettere a rischio la sicurezza dei pazienti a causa delle risposte incomplete o imprecise
Uno studio pubblicato sul “British Medical Journal Quality & Safety” ha evidenziato le lacune dei motori di ricerca e dei chatbot basati sull’intelligenza artificiale nel fornire informazioni accurate sui farmaci.
Gli scienziati dell’Istituto di farmacologia e tossicologia sperimentale e clinica, Friedrich-Alexander-Universitat, in Germania, hanno valutato la leggibilità, la completezza e l’accuratezza delle risposte fornite da “Bing Copilot” riguardo i 50 farmaci più prescritti negli Stati Uniti nel 2020.
Sono state formulate 10 domande per ogni medicinale, riguardanti scopo, principio attivo, istruzioni d’uso, effetti collaterali e controindicazioni, generando 500 risposte complessive.
I risultati hanno mostrato che solo il 54% delle risposte erano in linea con il consenso scientifico, mentre solo il 26% corrispondeva ai dati di riferimento (NdR: … And il 39% contraddiceva il consenso scientifico, mentre non c’era alcun consenso scientifico stabilito per il restante 6%).
La leggibilità richiedeva un’istruzione universitaria, rendendo le informazioni spesso difficili da comprendere per i pazienti. Gli autori concludono che l’uso di chatbot potrebbe mettere a rischio la sicurezza dei pazienti a causa delle risposte incomplete o imprecise.
Nonostante il potenziale della tecnologia, i pazienti sono invitati a consultare sempre i professionisti sanitari.
Journal Reference: Andrikyan, W., et al. (2024). Artificial intelligence-powered chatbots in search engines: a cross-sectional study on the quality and risks of drug information for patients. BMJ Quality & Safety. doi.org/10.1136/bmjqs-2024-017476
Related news: Researchers warn against relying on AI chatbots for drug safety information
Don’t rely on AI chatbots for accurate, safe drug information, patients warned (BMJ Group)
Come l’Intelligenza Artificiale può creare un set di dati falsi ma credibili nella ricerca medica