- DAZ.online
- News
- Digitales
- KI ersetzt keine ...
Studie zu Chatbots
KI ersetzt keine professionelle Beratung bei Arzneimitteln
KI-unterstützte Suchmaschinen liefern nicht immer zuverlässige Antworten zu Arzneimitteln, wie eine Studie nun ergab. Die Forscher fordern daher Warnhinweise.
Apothekerinnen und Apotheker sind gegenüber sogenannter Künstlicher Intelligenz misstrauisch. Das ergab die Apokix-Umfrage vor einem Jahr. Die größten Herausforderungen sahen die Befragten bei Haftungsrisiken und auch bei der Verlässlichkeit.
Eine Studie im Fachjournal „BMJ Quality & Safety“ gibt ihnen nun recht: KI-unterstützte Suchmaschinen und Chatbots liefern ihr zufolge keine zuverlässigen Informationen zu Arzneimitteln. Die Antworten seien wiederholt ungenau und unvollständig gewesen und oft schlecht verständlich, schreiben die Forschenden. Sie raten deshalb zu Vorsicht und fordern Warnhinweise für Nutzerinnen und Nutzer.
Mehr zum Thema
Apokix-Umfrage
Digitalisierung: Apotheken sehen sich gut aufgestellt
Risiken und Nebenwirkungen von KI
Worauf zu achten ist, wenn künstliche Intelligenz in Apotheken genutzt wird
Roboter, KI und Co.
Übernehmen Maschinen die Apotheke?
„Ein zentrales Ergebnis unserer Untersuchung ist, dass die Qualität der Chatbot-Antworten bislang nicht zur sicheren Anwendung für Nutzer ausreichend ist“, erläuterte Erstautor Wahram Andrikyan vom Institut für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen. „Ein deutlicher Hinweis, dass die vom Chatbot bereitgestellten Informationen keinen professionellen Rat ersetzen können, ist unserer Meinung nach daher unerlässlich.“
Ungenauigkeiten sind für Laien nicht erkennbar
Ausgangspunkt der Studie sei die Erfahrung gewesen, dass sich Patientinnen und Patienten im Internet über verschriebene Medikamente informierten. Deshalb stellten die Forschenden dem KI-gestützten Chatbot der Microsoft-Suchmaschine Bing im April 2023 zehn häufige Fragen zu den 50 meist verordneten Medikamenten in den USA, darunter Fragen zur Einnahme, zu Nebenwirkungen oder Gegenanzeigen.
Generell habe der Chatbot die Fragen mit hoher Vollständigkeit und Genauigkeit beantwortet, sagte Andrikyan. Doch bei manchen Fragen sei das nicht der Fall gewesen. „Dies birgt ein Risiko für Patienten, da sie als medizinische Laien die Genauigkeit und Vollständigkeit der KI-generierten Antworten selbst nicht einschätzen können“, sagte Andrikyan.
Verbesserungen bei KI reichen nicht aus
Zwar habe es seit der Untersuchung im vergangenen Jahr rasante Fortschritte bei KI-gestützten Suchmaschinen mit integrierter Chatbot-Funktion gegeben, betonte der Experte. Die Verbesserungen seien aber nicht ausreichend, die Risiken für die Patientensicherheit blieben bis auf Weiteres bestehen. Da Chatbots jedoch mit unterschiedlichen Datensätzen trainiert werden, hält er es für sinnvoll, die Sicherheit und Qualität anderer technischer Systeme ebenfalls zu untersuchen.
0 Kommentare
Kommentar abgeben