
Weltwissen nutzen, Grenzen erkennen Risiken und Nebenwirkungen der Künstlichen Intelligenz

Michael Dowling, ein amerikanischer Wirtschaftswissenschaftler, seit 1996 Professor für Innovations- und Technologiemanagement an der Universität Regensburg, nahm in seinem Vortrag „Generative Künstliche Intelligenz und Medizin – Chancen und Risiken“ im Rahmen der Erfurter Dialysefachtagung 2025 die Teilnehmer mit in die Welt von Machine Learning und generativer KI-Modelle (Gen-KI) wie Large Language Models (LLMs). Als Vorstandsvorsitzender des Münchner Kreises, einem Netzwerk von Vertretern aus Wissenschaft, Unternehmen, Politik und Medien, das sich mit digitalen Herausforderungen und Chancen beschäftigt, gewährte er interessante Einblicke in die Praxis von Unternehmen wie OpenAI, stellte Studien zur wirtschaftlichen Bedeutung der KI vor und demonstrierte die wachsende Bedeutung der Technologie anhand zahlreicher Beispiele aus der Wirtschaft und Anwendungsmöglichkeiten in der Medizin.
Dowling vermittelte eine Momentaufnahme dessen, welche Möglichkeiten KI birgt, warum trotz des inzwischen vielfach belegten Nutzens und aller Euphorie bei der Nutzung Künstlicher Intelligenz auch Vorsicht geboten ist.
Dowlings Übersicht konnte nur eine Momentaufnahme sein, weil die Entwicklung der KI, gemessen an menschlicher Intelligenz, so rasant verläuft, dass innerhalb kurzer Zeit zu erwarten ist, dass KI-Modelle in bestimmten Bereichen der „human performance“ überlegen sein werden, erklärte der Experte. Das zeigt z. B. der jährlich erscheinende „Artifical Intelligence Index Report“ 2024 der Stanford University [1], der sich kontinuierlich mit verschiedenen solcher Modelle beschäftigt.
Künstliche Intelligenz
ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. Der Computer empfängt Daten (die bereits über eigene Sensoren, zum Beispiel eine Kamera, vorbereitet oder gesammelt wurden), verarbeitet sie und reagiert. KI-Systeme sind in der Lage, ihr Handeln anzupassen, indem sie die Folgen früherer Aktionen analysieren und autonom arbeiten. Einige Technologien gibt es bereits seit über 50 Jahren, doch Fortschritte bei der Rechenleistung sowie die Verfügbarkeit großer Datenmengen und neue Algorithmen haben in den letzten Jahren zu bahnbrechenden Durchbrüchen in der KI geführt.
Meilenstein der Innovationsforschung
Ob Telefon, Flugzeuge, Automobile, Rundfunktechnik, Fernsehen, Internet, Social Media − der technologische Fortschritt hat sich, meist nach anfänglich großer Skepsis, im Laufe der Geschichte immer durchgesetzt und die Arbeitsund Lebensbedingungen der Menschen immer weiter verbessert. Heute ist es die KI, die mittlerweile unser aller Leben „infiltriert“, ganz gleich, ob im Privaten oder in welcher Branche auch immer. Gerade in den Bereichen Healthcare and Life Sciences, so zeigte Dowling, gewinnt KI rasch an Bedeutung. Wer mithalten will, muss schnell sein. Die Konkurrenz ist groß, die Kapazitäten und die Genauigkeit der verschiedenen Modelle wachsen exponentiell [2], erläuterte der Referent. Und die Geschwindigkeit, mit der sich die Technologie in der Welt verbreitet, ist atemberaubend.
Einer der großen Innovatoren, der sich mit einer Art neuronaler Netzwerkstruktur als besonders effektiv bei der Verarbeitung sequenzieller Daten und hocheffizient bei der Erledigung „natürlich- sprachlicher Aufgaben“ erwiesen hat, ist OpenAI. Der Anbieter von ChatGPT, ein mittlerweile knapp 100 Milliarden Dollar schweres Privatunternehmen, ging im November 2022 an den Markt und bringt im fast monatlichen Rhythmus neue Versionen heraus. Während es bei der Verbreitung des Telefons z. B. noch 75 Jahre (beim Auto 62, beim Radio 38, beim Fernsehen 14 und beim Internet immerhin noch 3,5 Jahre) dauerte, ehe 50 Mio. Nutzer erreicht wurden, so hatte ChatGPT nach weniger als zwei Monaten bereits 100 Mio. User [3].
Effektiver als der Mensch?
Mit größeren Datenmengen und höherer Trainingsintensität werden die KI-Modelle immer besser. 2024 zeigte ein in Science veröffentlichter experimenteller Vergleich, bei dem die Autoren die Produktivität der generativen KI ChatGPT im Kontext von berufsspezifischen mittelschweren Schreibaufgaben untersucht hatten [4], dass die Produktivität der ChatGPT-Nutzer signifikant besser war. In dem Online-Experiment wurden mehr als 400 Hochschulabsolventen randomisiert. Die eine Hälfte arbeitete ohne KI, die andere konnte ChatGPT nutzen. Die Ergebnisse zeigen, dass ChatGPT die Produktivität deutlich steigerte: Der durchschnittliche Zeitaufwand sank um 40 % und die Qualität der Ergebnisse verbesserte sich um 18 %. Das ist nur eines von vielen Beispielen in verschiedensten Bereichen, das zeigt, wie hilfreich KI sein kann.
Generative KI
bezieht sich auf eine Klasse von Algorithmen und Modellen der KI, die darauf ausgelegt sind, auf der Basis von Eingaben, sog. „Prompts“, neue, originelle Inhalte zu generieren. Sie kann Text, Bilder und Videos, Musikkompositionen erzeugen und Datensätze für das Training von Modellen des maschinellen Lernens erweitern. Beispiele: ChatGPT (GPT „Generative Pre-Trained Transformer“, ein textbasiertes Programm von OpenAI), Sora (ein von OpenAI entwickeltes KI-System, das digitale Bilder und Videos auf der Basis von Textbefehlen erzeugt), Midjourney, Stable Diffusion, Amazon Bedrock, Google Gemini…
LANGUAGE MODELS (LLMs)
werden mittels riesiger Datenmengen trainiert (pretrained Models) und berechnen dann die Wahrscheinlichkeit des nächsten Wortes in einer Wortfolge (oder auch des nächsten Bildes), um menschliche Texte (Inhalte) zu imitieren.
KI hat großes Potenzial
Für die Wirtschaft
Das ökonomische Potenzial der Generativen KI ist unbestritten und werde nach Dowlings Meinung eher unter- als überschätzt. Eine Studie von McKinsey hat gezeigt, „dass in 63 Anwendungsfällen Gen-KI das Potenzial hat, branchenübergreifend einen Wert von 2,6 bis 4,4 Billionen US-Dollar zu generieren“ [5]. Aufgrund der möglichen Produktivitätssteigerung könnten die Modelle durch Einsparung von Zeit und Arbeitskräften auch eine Antwort geben auf den zunehmenden Fachkräftemangel in fast allen Branchen, insbesondere im Gesundheitswesen, ist Dowling überzeugt. Er stellte weitere Unternehmen, Projekte und Produkte vor, die z. T. schon auf dem Markt sind oder an denen zurzeit intensiv geforscht wird. Und das keineswegs nur im Silicon Valley, betonte er und nannte beispielhaft für Deutschland Stable Diffusion (München), Aleph-Alpha in Kooperation mit Bosch (Heidelberg), DeepL und DeepLWrite (Köln).
In der Medizin
Aus der Medizin ist die KI mittlerweile kaum mehr weg zu denken – egal welche Tageszeitung, welche Fachzeitschrift oder welches Gesundheitsmagazin der Publikumspresse man aufschlägt, KI ist für die Leser mit der Beschreibung zahlreicher Forschungsschwerpunkte, mit Studienergebnissen und Anwendungsbeispielen allgegenwärtig.
So berichtete kürzlich eine Berliner Lokalzeitung von einer Studie, in der Forscher in Berlin-Buch am Max Delbrück Center - Berlin Institute for Medical Systems Biology (MDC-BIMSB) untersucht haben, ob KI-Sprachmodelle effektiv Krankheitssymptome erkennen und einordnen können, wie gut LLMs Patienten den Weg zum richtigen Facharzt und zur passenden Therapie weisen können, ob LLMs dabei helfen können, die Anzahl nicht notwendiger Besuche in Notaufnahmen zu reduzieren oder auch Über- und Untertriagierungen zu vermeiden [6]. Das Resümee der Autoren: „Gut konzipierte, rigoros getestete LLMs können für Mediziner eine hilfreiche Unterstützung sein, insbesondere für die noch weniger Erfahrenen unter ihnen. Die Resultate, die von der KI erzielt wurden, sind schon sehr gut, lassen sich aber noch weiter verbessern, wenn noch mehr in medizinischen Tests gewonnene Daten in die Modelle eingespeist werden. Zudem können LLMs das Gesundheitssystem entlasten, indem sie unnötige Arzt- und Krankenhausbesuche reduzieren.“ Gleichzeitig verweisen die Forscher darauf, dass strenge regulatorische Standards gemäß dem EU-Gesetz über KI [7] erfüllt sein müssen, ehe solche Werkzeuge offiziell genutzt werden dürfen (PM mdc v. 2. Juni 2025).
Weitere denkbare Anwendungsoptionen in der Medizin, für die bereits Modelle wie GPT-4 oder Med-PaLM für spezifische medizinische Fragestellungen entwickelt wurden, oder für die es bereits vielversprechende Forschungsergebnisse gibt, sind z. B. die effektivere digitale Beantwortung von Patientenfragen oder die Entwicklung neuer Medikamente wie Antibiotika in kürzerer Zeit.
Supertool Perplexity
Diese Zusammenfassung (siehe Kasten) zur Frage, welche die wichtigsten Ergebnisse des Ärztetages 2025 in Bezug auf KI waren, bietet Perplexity, eine alternative Plattform zu ChatGPT an, die Dowling als ein „Supertool“ für Akademiker bezeichnet. Unter anderem auch deshalb, weil alle Aussagen mit Originalquellen versehen sind. So fand er beispielsweise mit Perplexity auch den Artikel Generative AI in Medicine and Healthcare: Promises, Opportunities and Challenges [8], in dem die Autoren für Gen-KI Möglichkeiten und Herausforderungen auflisten: Clinical Administration Support, Clinical Decision Support, Patient Engagement and Synthetic Data Generation.
KI ist zunehmend Bestandteil ärztlicher Tätigkeit
Der KI-Einsatz in deutschen Kliniken hat sich seit 2022 deutlich erhöht. Aktuell nutzen rund 18 % der Klinikärzte KI-Systeme, vor allem in größeren und gut digitalisierten Häusern.
Die Delegierten des Deutschen Ärztetages 2025 in Leipzig, auf dem die KI eines der zentralen Themen war, sprachen sich für eine verantwortungsvolle Einführung von KI-Technologien aus. Denn KI werde in den kommenden Jahren zunehmend Bestandteil der ärztlichen Tätigkeit sein – insbesondere zur Effizienzsteigerung in der Verwaltung, zur Verbesserung der medizinischen Dokumentation und Praxisabläufe sowie zur Unterstützung bei Diagnostik und Therapie. Bemerkenswerte Fortschritte und Verbesserungen durch den Einsatz von KI gebe es hier bereits vor allem in der
- Radiologie und Bildgebung (umfassende Hilfe bei der radiologisch-bildgebenden Diagnostik, Befundung von Röntgenbildern, Mammografien und neurologischen Untersuchungen wie EEG, Erkennung neuer Muster und Prognosen, z. B. bei Schlaganfallpatienten, oder zur Früherkennung von Komplikationen
- Patientenüberwachung und Intensivmedizin (zur Interpretation von Vitaldaten (EEG, EKG) und auf Intensivstationen zur Langzeitprognose oder Vorhersage von Komplikationen und zur Therapiesteuerung sowie
- Orthopädie und Implantologie (smarte Implantate mit KI-Sensorik und Aktorik unterstützen die Heilung durch adaptive Steuerung der Implantatsteifigkeit. Desweiteren
- bei Verwaltung und Workflow (z. B. beim Informationsaustausch zwischen Rettungsdienst und Notaufnahme, Klinischer Assistenz und der Förderung von Forschungsprojekten
Wesentlich bleibt jedoch, dass die abschließende Verantwortung für Diagnostik, Indikationsstellung und Therapie bei den Ärzten verbleibt und nicht an KI-Systeme übertragen werden dürfe. Es besteht Offenheit gegenüber der KI, doch wurden auch Risiken in Bezug auf Datensicherheit, Transparenz, ärztliche Verantwortung sowie offene Fragen bzgl. digitale Infrastruktur, Ethik, Vergütung und Arzt-Patienten- Beziehung intensiv diskutiert.
Mehr Empathie durch KI?
Zurück zur Erfurter Dialysefachtagung. Besonders interessant für das Auditorium war hier ein Beispiel, das Dowling ebenfalls im medizinischen Kontext mitgebracht hatte. Die Autoren der in JAMA Internal Medicine veröffentlichten Arbeit hatten Antworten auf Patientenfragen, die auf Social-Media gepostet wurden, von Ärzten und Chatbots verglichen [9]. In der Studie wurde gezeigt, dass ChatGPT effektiv einfühlsame und hochwertige Antworten auf Patientenanfragen gegeben hat. In 78,6 % der 585 Bewertungen wurden Chatbot-Antworten den Arztantworten vorgezogen. Die Qualität der Chatbot-Antworten wurde deutlich höher (empathischer) bewertet als die der Arztantworten. Das Ergebnis dieser Arbeit sorgte für ein allgemeines Raunen im Erfurter Kaisersaal und beim medizinischen Personal, so empfand ich es, auch für etwas verlegene Heiterkeit. Denn alle Ärzte wissen natürlich, dass vor allem im stationären Bereich gerade die empathische Zuwendung aufgrund von Stress, Zeit- und ökonomischem Druck immer wieder zu kurz kommt. Auf individuelle Bedürfnisse und Fragen kann kaum eingegangen werden, Kranke werden mitunter mit einer gefühlten Sintflut von Fachbegriffen konfrontiert, ohne dass sie näher erklärt werden.
Vor dem Hintergrund, dass ChatGPT scheinbar sehr empathische Antworten auf Patientenanfragen gegeben hat, erscheint die Forderung des Deutschen Ärztetages „dass die empathische Kommunikation und das Vertrauensverhältnis zwischen Arzt und Patient nicht durch KI in den Hintergrund geraten dürfen“ in einem neuen Licht. Vermutlich wäre hier sogar die KI eher ein Segen als ein von vielen befürchteter Fluch. „Mehr Empathie durch KI“ müssen allerdings weitere Forschungen und belastbare Daten noch bestätigen.
Risiken und Nebenwirkungen
Falschinformationen, sog. „Datenhalluzinationen“, stellen eine Gefahr dar, wie Dowling erklärte: Es gibt Beispielfälle, bei denen die KI wissenschaftliche Quellen nahezu perfekt gefälscht hat. Selbst Experten auf dem jeweiligen Gebiet hatten Schwierigkeiten, sie als „erfunden“ zu erkennen, zeigte er anhand eines im November 2023 unter dem Titel „Chatbots May ‚Hallucinate‘ More Often Than Many Realize“ in der New York Times veröffentlichten Falls:
„When summarizing facts, ChatGPT technology makes things up about 3 percent of the time, according to research from a new start-up. A Google systems rate was 27 percent.”
Zudem gebe es Risiken für die Datensicherheit, vor allem bei der Nutzung „offener Modelle“. Das heißt, je nach Einsatzzweck erfordere der Einsatz von Gen- KI den Zugriff auf sensible Kundendaten, was Datenschutzrisiken mit sich bringe. Hier heißt es also aufpassen, wo die Daten landen.
Ein weiteres Feld, bei dem die Anwendung der KI erhöhter Aufmerksamkeit bedarf, sei Lehre und Forschung, Stichwort „Schummeln“ mit Hilfe von KI beim Schreiben von Aufsätzen oder der Lösung komplexer Sachverhalte. Studenten resp. Schüler sollten darauf hingewiesen werden, dass die von Gen-KI bereitgestellten Informationen und Quellen kritisch zu überprüfen sind, ehe man sie ggf. als Zitat verwendet oder weitergibt, um nicht das Risiko eines Plagiats einzugehen. Last but not least müssen Studierende und Forscher bei der Nutzung von Gen-KI sicherstellen, dass sie nur vertrauenswürdige Anbieter verwenden und keine vertraulichen Daten eingeben, mahnt Dowling.
Außerdem warnt er vor den Bedrohungen des sog. Dark Net. Hier ermöglichen ungefilterte KI-Modelle und Programme wie WormGPT, FraudGPT oder PoisonGPT gefährliche Anwendungen, darunter Tools für Cyberkriminalität, die Verbreitung von Desinformationen und die Verletzung der Privatsphäre. Solche KI-Modelle dienen kriminellen Akteuren zur Erstellung u. a. von Malware (für den Nutzer schädliche Software), Phishing-Seiten (gefälschte Webseiten) und Ransomware (Erpressungssoftware).
Für einen Teil sehr einflussreicher KI-Wissenschaftler der ersten Stunde, wie St. Russell, A. Yao, Y. Bengio und Y.Q. Zhang, sind solch hohe Risiken Anlass für die nachdrückliche Forderung, international sehr viel stärker zusammen zu arbeiten, um sie zu verhindern, wie die NY Times im September 2024 berichtete. „Sie warnten davor, dass die KI-Technologie innerhalb weniger Jahre die Fähigkeiten ihrer Entwickler übertreffen könnte, und dass der Verlust der menschlichen Kontrolle oder der böswillige Einsatz dieser KI-Systeme zu katastrophalen Folgen für die gesamte Menschheit führen könnte“, zitierte Dowling aus dem Beitrag „A.I. Pioneers Call for Protections Against Catastrophic Risks“. Andererseits, so seine persönliche Meinung zu dieser Problematik, könne man optimistisch sein, dass man immer mehr und bessere Möglichkeiten finden wird, die Gen- KI regulieren und kontrollieren zu können.
Fazit
Zusammenfassend hebt Dowling den hohen Nutzen der Generativen KI, auch und besonders im medizinischen Bereich, hervor. Aber er verweist auch eindringlich auf die Limitationen. Jeder Anwender muss sich dessen bewusst sein und verantwortungsvoll mit der Technologie umgehen. „Setzen Sie die generative KI ein, aber seien Sie vorsichtig!“
Beitrag auf Basis des Vortrages von Prof. Dr. Michael Dowling, Universität Regensburg, Lehrstuhl für Innovations- und Technologiemanagement zum Thema „Künstliche Intelligenz und Medizin – Chancen und Risiken“ im Rahmen der 33. Erfurter Dialysefachtagung am 08. Mai 2025
Literatur
1. hai.stanford.edu/ai-index/2024-ai-index-report
2. www.nature.com/articles/d41586-023-00641-w
3. medium.com/techtoday/reaching-50-million-users-the-journey-of-internetand-non-internet-products-7a531d36f4ea
4. Noy S and Zhang W et al. SCIENCE, 13 Jul 2023, Vol 381, Issue 6654, pp. 187-192 (https://www.science.org/doi/10.1126/science.adh2586)
5. www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economicpotential-of-generative-ai-the-next-productivity-frontier
6. Gaber, F., Shaik, M., Allega, F. et al. npj Digit. Med. 8, 263 (2025)
7. www.europarl.europa.eu/topics/de/article/20230601STO93804/ki-gesetzerste-regulierung-der-kunstlichen-intelligenz
8. Zhang P, Kamel Boulos M N Future Internet 2023, 15, 286
9. Ayers J W et al. 2023. JAMA Internal Medicine. Advance online publication https://doi.org/10.1001/jamainternmed.2023.1838
Dieser Beitrag ist ursprünglich erschienen in: Nierenarzt/Nierenärztin 5/2025