#LLM-Chatbots und #KI im Gesundheitswesen 🩺
Künstliche Intelligenz (#KI) wird Ärzte nicht ersetzen, genauso wenig wie die Roboter die Chirurgen ersetzt haben. #KI sollte als ein Werkzeug betrachtet werden, das Ärzte bei ihrer Arbeit unterstützt, indem sie hilft, bestehende Probleme zu lösen. 🤝
Ein Beispiel für eine solche Unterstützung, könnte die Verbesserung der Arzt-Patienten-Kommunikation sein. Die Ergebnisse von Experimenten und Pilotimplementierungen legen nahe, dass #LLMs die Lesbarkeit, Empathie und Verständlichkeit der Kommunikation verbessern.
1️⃣ Fallstudie 1: Eine in JAMA Internal Medicine veröffentlichte Studie evaluierte die Reaktionen von #ChatGPT und von Ärzten auf die Patientenfragen. Die Studie verwendete eine Datenbank mit Fragen aus öffentlichen Foren (Reddit /AskDocs) und wählte zufällig 195 Konversationen aus, bei denen ein verifizierter Arzt auf eine öffentliche Frage antwortete.
👉 In 78,6 % der Bewertungen wurden die Antworten des Chatbots gegenüber denen des Arztes bevorzugt und im Bezug auf Qualität, Empathie und Verständlichkeit höher bewertet.
Diese Ergebnisse deuten darauf hin, dass die KI-Assistenten bei der Formulierung von Antworten auf Patientenanfragen helfen können. Dadurch reduziert sich die Arbeitsbelastung und das Burnout-Risiko für die Ärzte und MFAs.
2️⃣ Fallstudie 2: Klinische Notizen und andere Informationen, die der Arzt dem Patienten bereitstellt, enthalten oft Fachbegriffe und Abkürzungen, die für den durchschnittlichen Patienten schwer verständlich sind.
Eine kürzlich durchgeführte Studie untersuchte den Einsatz von generativer KI zur Umwandlung von medizinischen Berichten in eine patientenfreundliche Sprache. Die Studie umfasste 50 Entlassungsbriefe für Personen, die von der Abteilung der Inneren Medizin an der New York University entlassen wurden.
Die Ergebnisse waren ermutigend:
👉 Der Schwierigkeitsgrad, der durch die #KI generieten Texte, sank durchschnittlich von einem Lese-Niveau der 11. Klasse auf ein Niveau der 6. Klasse.
👉 Die Verständlichkeitswerte des Patient Education Materials Assessment Tool (PEMAT) stiegen auf 81 %, was eine signifikante Verbesserung gegenüber dem Wert von 13 % darstellt, der durch die ursprünglichen ärztlich verfassten Entlassungsberichte erreicht wurde.
👉 Die patientenfreundlichen Zusammenfassungen wurden in 56 von 100 Bewertungen als vollständig bewertet.
🔴 Allerdings wiesen18 Bewertungen auf Unvollständigkeiten und Ungenauigkeiten hin.
Daher ist es wichtig, sich der Grenzen von #Chatbots bewusst zu sein, auch wenn sie das Verständnis der Patienten verbessern können. Sie sind möglicherweise nicht immer korrekt und können keine Verantwortung für ihre Entscheidungen übernehmen.
#KI ist lediglich ein Werkzeug, das in bestimmten Situationen nützlich sein und den Arzt entlasten kann.
Quellen:
https://lnkd.in/gyPjtSY8
https://lnkd.in/eSYMSnXU