Zwischen Fortschritt und Verantwortung: Wie KI die Medizin aktuell verändert
6. Mai 2026
Von Ben Beier
Der April 2026 hat erneut gezeigt, wie stark sich die Diskussion über Künstliche Intelligenz (KI) in der Medizin verändert hat. Während vor wenigen Jahren vor allem Zukunftsvisionen dominierten, stehen heute konkrete Fragen zur Integration in den klinischen Alltag im Mittelpunkt: Wie lässt sich KI sicher, evidenzbasiert und verantwortungsvoll einsetzen? Wie kann sie Ärzt*innen sinnvoll unterstützen und die Versorgung verbessern?
Besonders sichtbar wurde diese Entwicklung auf zwei der wichtigsten Gesundheitsveranstaltungen Deutschlands: dem DGIM-Kongress 2026 vom 18. bis 21. April in Wiesbaden sowie der DMEA 2026 vom 21. bis 23. April in Berlin. Elsevier war auf beiden Veranstaltungen vertreten und beteiligte sich aktiv am fachlichen Austausch rund um den verantwortungsvollen Einsatz von KI in der Medizin. Dabei wurde deutlich: Die Frage ist längst nicht mehr, ob KI genutzt wird, sondern wie sie sinnvoll und vertrauenswürdig in medizinische Entscheidungsprozesse integriert werden kann.
KI ist längst im klinischen Alltag angekommen
Die Gespräche mit Ärzt*innen, Krankenhausvertreter*innen, Nachwuchsmediziner*innen und Digitalexpert*innen machten deutlich, wie stark KI bereits heute in der Praxis angekommen ist. Viele medizinische Fachkräfte nutzen KI basierte Systeme inzwischen zur Recherche, zur Strukturierung komplexer Informationen oder zur Unterstützung klinischer Fragestellungen.
Gleichzeitig herrscht große Unsicherheit darüber, welche Systeme vertrauenswürdig sind, wie Ergebnisse bewertet werden sollten und welche Risiken mit nicht validierten Anwendungen verbunden sind. Besonders häufig wurde über sogenannte „Shadow AI“ gesprochen, also die Nutzung frei zugänglicher KI-Anwendungen außerhalb regulierter klinischer Systeme.
Genau hier zeigte sich auf beiden Veranstaltungen derselbe Trend: Das Gesundheitswesen sucht nicht nach beliebiger KI, sondern nach Lösungen, die Transparenz, Evidenz und klinische Sicherheit in den Mittelpunkt stellen.
Die Diskussionen drehten sich dabei nicht nur um technologische Leistungsfähigkeit, sondern zunehmend um die Frage, wie KI verantwortungsvoll in die Versorgung integriert werden kann. Ärzt*innen wollen verstehen, wie Systeme funktionieren, auf welcher Evidenz sie basieren und wo ihre Grenzen liegen. Besonders im medizinischen Kontext reicht es nicht aus, dass ein System „funktioniert“. Es muss nachvollziehbar, sicher und vertrauenswürdig sein.
Vertrauen entsteht durch Transparenz und Evidenz
Wie zentral diese Fragen inzwischen geworden sind, zeigte sich auch im Symposium „Vertrauenswürdige KI in der Patientenbehandlung“ im Forum DGIM Futur. Nach ihrem Impulsvortrag diskutierte Dr. Laura Velezmoro, Charité, mit dem Publikum, darüber, wie Vertrauen in KI entstehen kann und welche Voraussetzungen dafür notwendig sind.
Im Mittelpunkt standen Large Language Models (LLM), Retrieval Augmented Generation (RAG) sowie die Chancen und Grenzen generativer KI in der klinischen Praxis. Besonders intensiv wurde darüber gesprochen, dass medizinische KI-Systeme nicht als „Black Box“ funktionieren dürfen. Ärzt*innen müssen nachvollziehen können, woher Informationen stammen, wie Antworten generiert werden und auf welcher Evidenz sie beruhen.
Diese Diskussion zog sich wie ein roter Faden durch beide Veranstaltungen. Sowohl auf dem DGIM-Kongress als auch auf der DMEA wurde deutlich, dass sich die Debatte zunehmend weg von allgemeinen KI-Visionen hin zu konkreten Anforderungen an verantwortungsvolle Anwendungen bewegt.
Auch Dr. Laura Velezmoro griff diesen Gedanken in ihren Beiträgen auf. Sie betonte, dass KI-Modelle bislang häufig vor allem anhand diagnostischer Genauigkeit bewertet würden, ähnlich wie Prüfungsfragen im Medizinstudium. Entscheidend sei jedoch letztlich eine andere Frage: Verbessert sich tatsächlich die Versorgung von Patient*innen?
Darüber hinaus rückten Themen wie klinische Sicherheit, potenzielle Schäden durch fehlerhafte oder unvollständige Empfehlungen sowie die Notwendigkeit evidenzbasierter Systeme stärker in den Fokus. Ebenso wurde diskutiert, dass die Kombination aus Mensch und KI nicht automatisch bessere Ergebnisse liefert. Entscheidend bleibt, dass Anwender*innen verstehen, wie sie KI sinnvoll einsetzen und kritisch einordnen können.
KI als Orientierung im Informationsdschungel
Wie stark sich die Rolle von KI im klinischen Alltag bereits verändert, wurde auch im DGIM-Kongress-TV-Interview deutlich. Unter dem Titel „KI als Kompass: Führt sie junge Ärzt*innen durch die Flut klinischer Informationen?“ diskutierten Dr. Christian Becker, Oberarzt der Kardiologie an der Universitätsmedizin Göttingen und Sprecher der AG JUNGE DGIM, sowie Melissa Jasarevic, Regional Manager DACH bei Elsevier, über Chancen und Herausforderungen medizinischer KI-Anwendungen.
Im Mittelpunkt stand die Frage, wie Ärzt*innen in einer zunehmend komplexen Informationslandschaft unterstützt werden können. Dr. Becker betonte, dass die Medizin immer spezialisierter werde und Ärzt*innen deshalb zwangsläufig auf schnelle und zuverlässige Informationsquellen angewiesen seien.
Besonders hervorgehoben wurde dabei die Bedeutung transparenter Evidenz:
„Der große Vorteil liegt darin, dass Quellen transparent angegeben werden und die Evidenz direkt überprüfbar ist.“
Gleichzeitig sprach Dr. Becker offen über die Risiken frei verfügbarer KI-Anwendungen im medizinischen Kontext. Gerade sogenannte „Shadow AI“ zeige, dass der Bedarf an KI-Lösungen längst vorhanden sei. Umso wichtiger sei es, sichere und datenschutzkonforme Alternativen bereitzustellen, die speziell für den klinischen Einsatz entwickelt wurden.
Auch die Rolle zukünftiger Ärzt*innen spielte eine zentrale Rolle im Gespräch. KI-Kompetenz müsse stärker Teil medizinischer Ausbildung werden, damit junge Ärzt*innen nicht nur lernen, KI zu nutzen, sondern auch ihre Grenzen zu verstehen und Ergebnisse kritisch zu bewerten.
Das vollständige Interview ist hier verfügbar: DGIM Kongress TV Interview
Von Visionen zu messbaren Ergebnissen
Während auf dem DGIM-Kongress vor allem die Perspektive der Versorgung im Mittelpunkt stand, zeigte sich auf der DMEA besonders deutlich, dass Gesundheitsorganisationen inzwischen verstärkt nach konkreten, integrierbaren Lösungen suchen. Die Fragen ähnelten sich dabei erstaunlich stark: Wie lässt sich KI sinnvoll in bestehende Workflows integrieren? Wie schafft man Vertrauen? Und wie können Ärzt*innen entlastet werden, ohne klinische Verantwortung abzugeben?
Im Rahmen der DMEA stellte Elsevier unter anderem Erkenntnisse aus der Zusammenarbeit mit der italienischen Gesundheitsorganisation ASL Bari vor. Die Studie untersucht die Auswirkungen von ClinicalKey AI auf klinische Entscheidungsfindung, Workflow Effizienz und Patientenversorgung.
Die Ergebnisse zeigen, dass die Diskussion inzwischen weit über theoretische Potenziale hinausgeht. So berichteten 84 Prozent der Ärzt*innen über mittlere bis hohe Sicherheit in der klinischen Entscheidungsfindung nach Nutzung von ClinicalKey AI. Gleichzeitig gaben 78 Prozent an, ihre Fähigkeit zur Patientenversorgung habe sich verbessert.
Auch die Auswirkungen auf klinische Abläufe waren deutlich sichtbar: 86 Prozent der Ärzt*innen fanden diagnostische Informationen in zehn Minuten oder weniger. Während der Evaluationsphase nutzten mehr als 300 Ärzt*innen die Plattform und stellten über 10.000 klinische Anfragen.
Gerade diese Verbindung aus evidenzbasierter Entscheidungsunterstützung, Effizienzsteigerung und klinischer Verantwortung prägte auch viele Gespräche auf beiden Veranstaltungen.
Mehr über die Studie finden Sie hier: ASL Bari Studie
Partnerschaft mit der DGIM: Evidenzbasierte KI gemeinsam gestalten
Die Partnerschaft zwischen Elsevier und der Deutsche Gesellschaft für Innere Medizin bildet einen wichtigen Rahmen für diese Diskussionen. Gemeinsam verfolgen beide Partner das Ziel, den verantwortungsvollen Einsatz von KI in der Inneren Medizin aktiv mitzugestalten und evidenzbasierte Lösungen in die klinische Praxis zu bringen.
DGIM Mitglieder erhalten bis Ende des Jahres kostenfreien Zugang zu ClinicalKey AI und können die Anwendung im klinischen Alltag selbst testen. Weitere Informationen zur Partnerschaft finden sich hier.
Auch Nicht Mitglieder haben die Möglichkeit, ClinicalKey AI kennenzulernen und kostenfrei zu testen: Testzugang aktivieren.
Die Gespräche der vergangenen Wochen haben gezeigt, dass der Bedarf an vertrauenswürdigen und transparenten KI-Lösungen weiter wächst. Gleichzeitig wurde deutlich, dass Technologie allein nicht ausreicht. Entscheidend ist, wie KI implementiert, bewertet und genutzt wird.
Denn eines wurde sowohl auf dem DGIM-Kongress als auch auf der DMEA klar: KI wird die Medizin nachhaltig verändern. Wie erfolgreich diese Entwicklung sein wird, hängt maßgeblich davon ab, ob es gelingt, Innovation mit Evidenz, Transparenz und klinischer Verantwortung zu verbinden.
Mitwirkende*r
