Einsatz von KI Haftungsfragen: „Die KI hat keine eigene Rechtspersönlichkeit“
Fachanwalt Dirk R. Hartmann diskutiert über die Haftungsfrage bei KI in der Medizin.
© Pakorn – stock.adobe.com
Künstliche Intelligenz mag täuschend klug erscheinen – doch weder Hersteller noch Anwender dürfen sich auf sie verlassen. Dabei kann die KI auch nicht haftbar gemacht werden für das, was sie entscheidet, da sie „keine eigene Rechtspersönlichkeit hat“, erklärt Dirk R. Hartmann, Fachanwalt für Medizinrecht.
Doch wie gestalten sich die Haftungsregeln dann? Spezifische juristische Regelungen für den Einsatz von KI in der Medizin gibt es noch nicht. Juristisch greift stattdessen zunächst noch das alte Instrumentarium des Bürgerlichen Gesetzbuchs, ergänzt um das Patientenrechtegesetz und das Produkthaftungsrecht, erklärt der Fachanwalt dazu. Und die Prinzipien der bewährten Regelungen werden sich auch in absehbarer Zukunft nicht verändern.
Trotzdem: Die Anpassung der juristischen Landschaft an die neuen Gegebenheiten steht vor der Tür. Ihr Kernstück ist die europäische KI‑Verordnung, der EU AI Act. Die Verordnung teilt KI‑Anwendungen in Risikoklassen ein. Viele medizinischen Anwendungen landen naturgemäß ganz oben, im Hochrisikobereich.
Medizinische Software wird gesetzlich speziell bewertet
„Die Medizinprodukte‑Software, die etwa zur Hautkrebsdiagnostik eingesetzt wird, ist ein klassisches Hochrisikosystem“, erklärt Hartmann. „Das unterscheidet sie klar von Programmen wie ChatGPT – die sind reine Software für allgemeine Zwecke.“ Diese gesetzliche Differenzierung soll Patientensicherheit schaffen, bevor Schäden entstehen.
Aber was, wenn der Schaden trotzdem passiert? Wer ist verantwortlich, wenn ein KI‑gestütztes Verfahren eine falsche Diagnose liefert? Hier kommt die ärztliche Anwenderhaftung ins Spiel. Auch wenn ein Produkt technisch von der Industrie geliefert wird, bleibt die ärztliche Verantwortung bestehen. Hartmann betont: „Die KI ist ein Hilfsmittel – so wie ein Stethoskop oder ein Laborgerät.“ Sie ersetzt kein ärztliches Urteil und sie befreit auch nicht von der Pflicht, das Ergebnis kritisch zu plausibilisieren. Wer eine fehlerhafte KI nutzt, die nicht zugelassen ist oder deren Ergebnis ungeprüft übernimmt, riskiert Haftung.
Und auch Kliniken müssen ihre internen Abläufe so gestalten, dass der Umgang mit KI‑Systemen sicher, überprüfbar und klar geregelt ist. Verwendet etwa eine Kliniksoftware fehlerhafte KI‑Analysen, ohne dass die Ärztinnen und Ärzte ausreichend geschult sind, liegt die Verantwortung auch bei der Institution – Stichwort Organisationsverschulden.
Wie aber können Ärztinnen und Ärzte ihre Risiken minimieren? Ein Schlüsselwort lautet Dokumentation. Hartmann empfiehlt, den Einsatz der KI in der Patientenakte festzuhalten, inklusive des Namens der Software, ihrer Rolle in der Befundung und der eigenen Bewertung des Ergebnisses. Ebenso wichtig ist es, die Patientinnen und Patienten über den Einsatz von KI aufzuklären. Noch gilt der KI‑Einsatz als Neuland‑Methode, als Verfahren außerhalb des Standards. Transparenz schützt doppelt – juristisch und mit Blick auf das Vertrauensverhältnis.
Und was bringt die Zukunft? Wird der Tag kommen, an dem Diagnosen ohne KI nicht mehr dem Facharztstandard entsprechen? Wer mehr dazu erfahren möchte und weitere To-dos kennenlernen will, die beim Einsatz einer medizinischen KI vor Haftung schützen, sollte in die neue Folge unseres Podcasts O‑Ton Innere Medizin reinhören.
Quelle:
Dirk R. Hartmann