loading

Nachrichten werden geladen...

Veröffentlicht mit CMS publizer®

Studie: Vorsicht bei Infos von Chatbots zu Medikamenten

Nicht immer sind die Antworten verlässlich, die man im Internet findet. Bei Medikamenten gilt einer Studie zufolge deshalb große Vorsicht. / Foto: Karl-Josef Hildenbrand/Deutsche Presse-Agentur GmbH/dpa
Nicht immer sind die Antworten verlässlich, die man im Internet findet. Bei Medikamenten gilt einer Studie zufolge deshalb große Vorsicht. / Foto: Karl-Josef Hildenbrand/Deutsche Presse-Agentur GmbH/dpa

Viele Menschen suchen im Internet nach Informationen zu Medikamenten, die sie verordnet bekommen haben. Doch Forschende warnen davor, Chatbots zu vertrauen - und fordern deutliche Hinweise.

KI-unterstützte Suchmaschinen und Chatbots liefern einer Studie zufolge keine zuverlässigen Informationen zu Medikamenten. Die Antworten seien wiederholt ungenau und unvollständig gewesen und oft schlecht verständlich, schreiben die Forschenden im Fachjournal «BMJ Quality & Safety». Sie raten deshalb zu Vorsicht und fordern Warnhinweise für Nutzerinnen und Nutzer. 

«Ein zentrales Ergebnis unserer Untersuchung ist, dass die Qualität der Chatbot-Antworten bislang nicht zur sicheren Anwendung für Nutzer ausreichend ist», erläuterte Erstautor Wahram Andrikyan vom Institut für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen. «Ein deutlicher Hinweis, dass die vom Chatbot bereitgestellten Informationen keinen professionellen Rat ersetzen können, ist unserer Meinung nach daher unerlässlich.»

Ungenauigkeiten sind für Laien nicht erkennbar

Ausgangspunkt der Studie sei die Erfahrung gewesen, dass sich Patientinnen und Patienten im Internet über verschriebene Medikamente informierten. Deshalb stellten die Forschenden dem KI-gestützten Chatbot der Microsoft-Suchmaschine Bing im April 2023 zehn häufige Fragen zu den 50 meist verordneten Medikamenten in den USA, darunter Fragen zur Einnahme, zu Nebenwirkungen oder Gegenanzeigen. 

Generell habe der Chatbot die Fragen mit hoher Vollständigkeit und Genauigkeit beantwortet, sagte Andrikyan. Doch bei manchen Fragen sei das nicht der Fall gewesen. «Dies birgt ein Risiko für Patienten, da sie als medizinische Laien die Genauigkeit und Vollständigkeit der KI-generierten Antworten selbst nicht einschätzen können», sagte Andrikyan. 

Zwar habe es seit der Untersuchung im vergangenen Jahr rasante Fortschritte bei KI-gestützten Suchmaschinen mit integrierter Chatbot-Funktion gegeben, betonte der Experte. Die Verbesserungen seien aber nicht ausreichend, die Risiken für die Patientensicherheit blieben bis auf weiteres bestehen. Da Chatbots jedoch mit unterschiedlichen Datensätzen trainiert werden, hält er es für sinnvoll, die Sicherheit und Qualität anderer technischer Systeme ebenfalls zu untersuchen.

Copyright 2024, dpa (www.dpa.de). Alle Rechte vorbehalten