EU High-Level Expert Group on AI, 2019

7 Anforderungen an vertrauenswürdige KI

Der europäische Rahmen für vertrauenswürdige KI — nicht als Compliance-Checkliste, sondern als Grundlage für verantwortungsvolle Entscheidungen im Gesundheitswesen.[1,2]

Drei Bedingungen müssen über den gesamten Lebenszyklus hinweg gleichzeitig erfüllt sein: Rechtmäßigkeit, ethische Vertretbarkeit und technische Robustheit.
Sinngemäß nach: EU HLEG on AI,
April 2019, S. 2 [1]
(Originaltext in englischer Sprache)

7 Anforderungen an vertrauenswürdige KI

Der europäische Rahmen für vertrauenswürdige KI — nicht als Compliance-Checkliste, sondern als Grundlage für verantwortungsvolle Entscheidungen im Gesundheitswesen.[1,2]

1

Menschliche Kontrolle

KI stärkt das ärztliche Urteil — ersetzt es nicht. Der EU AI Act verlangt nach angemessener menschlicher Aufsicht: Eine ausreichende Anzahl geschulter Personen muss Systemempfehlungen prüfen und bei Bedarf korrigierend eingreifen können.[1][11]

2

Technische Robustheit

Zuverlässig, sicher, resilient gegen Datendrift. Patient Safety ist das Primärziel. Continuous Monitoring ist regulatorische Pflicht.[1]

3

Datenschutz & Governance

DSGVO Art. 9: Schutz von Gesundheitsdaten. Datensouveränität und Zweckbindung als Minimalstandard.[3]

4

Transparenz & Erklärbarkeit

Ärzte müssen KI-Empfehlungen nachvollziehen. Black-Box-Systeme in Hochrisiko-Settings sind ethisch problematisch.[1]

5

Fairness & Nicht-Diskriminierung

Repräsentativität der Trainingsdaten ist Pflicht. Beispiele illustrieren dies: Pulsoximetrie[9] und algorithmische Ressourcenzuteilung.[4]

6

Gesellschaftliches & ökologisches Wohlergehen

Systemwirkungen bedenken: Versorgungsgerechtigkeit, Ressourcenverteilung, ökologische Nachhaltigkeit.[1]

7

Rechenschaftspflicht

Klare Verantwortlichkeiten von Beschaffung bis Post-Market-Monitoring. EU AI Act Art. 99 definiert Sanktionen.[5]

Rechtlicher Rahmen

Europäischer Regulierungsrahmen im Überblick

Europa hat weltweit den umfassendsten Regulierungsrahmen für KI im Gesundheitswesen geschaffen. Für die Praxis bedeutet das: höhere Anforderungen bei der Beschaffung, klare Pflichten für Anbieter und neue Rechte für Patienten.

EU AI Act 2024/1689 [5]
KI-Software als Sicherheitskomponente eines Medizinprodukts gilt nach Art. 6(1) EU AI Act als Hochrisiko-System; bestimmte klinische Anwendungen (z.B. Notfalltriage) fallen zusätzlich unter Annex III. Vorgeschrieben: Conformity Assessment, technische Dokumentation, Transparenz- und Nachverfolgungspflichten. Verstöße gegen Hochrisiko-Pflichten werden sanktioniert (Art. 99).
DSGVO Art. 9 & 22 [3]
Besonderer Schutz für Gesundheitsdaten. Recht auf erklärungsbasierte Entscheidungen bei automatisierter Verarbeitung. Verarbeitung nur mit expliziter Einwilligung oder gesetzlicher Grundlage. Die Datenschutz‑Grundverordnung gilt seit dem 25. Mai 2018.
MDR/IVDR & KI [5]
KI-Software, die diagnostische oder therapeutische Entscheidungen unterstützt, fällt als Medizinprodukt unter MDR. CE-Kennzeichnung und klinische Bewertung sind Pflicht — Interplay mit EU AI Act beachten.
Europarat-Übereinkommen KI, 2024 [6]
Erstes völkerrechtlich bindendes Instrument zu KI: Schutz von Menschenrechten, Demokratie und Rechtsstaatlichkeit als verbindliche Grundsätze — auch für KI im Gesundheitswesen.
EHDS — EU 2025/327 [7]
Europäischer Gesundheitsdatenraum: Ziele sind der grenzüberschreitende elektronische Zugang zu Gesundheitsdaten und Kontrolle über eigene Daten. Die entscheidenden Vorgaben gelten ab 2029; Patient:innen können der Sekundärnutzung zu Forschungszwecken widersprechen (Opt‑out) und sollen vor benachteiligender Datennutzung geschützt werden.
WHO Europe: KI in Gesundheitssystemen, 2025 [8]
KI‑Einführung als Systemtransformation: Der Bericht betont Accountability, Haftungs‑ und Prüfmechanismen, Sicherheitsassurance und eine patientenzentrierte Perspektive. Er warnt vor rein effizienzgetriebenem Einsatz ohne Qualitätssicherung und fordert klare Verantwortlichkeiten – eine generelle Vier‑Augen‑Pflicht für jede Entscheidung wird nicht verlangt.

Praxisrelevanz

Was bedeutet das konkret — für Entscheider im Gesundheitswesen?

Ethische Prinzipien bleiben abstrakt, wenn sie nicht in operative Anforderungen übersetzt werden. Die folgenden Schritte zeigen, wie der regulatorische Rahmen in der Praxis wirksam wird.

1

Risikoklassifikation vor Beschaffung

KI-Software, die als Sicherheitskomponente eines Medizinprodukts (MDR/IVDR) eingesetzt wird, gilt nach Art. 6(1) EU AI Act als Hochrisiko-System. Bestimmte eigenständige klinische KI-Anwendungen — etwa Notfall-Triage-Systeme oder KI zur Zugangsentscheidung bei Versorgungsleistungen — können zusätzlich unter Annex III fallen. Nicht jede klinische Entscheidungsunterstützung ist automatisch hochriskant: Eine sorgfältige Einzelfallbewertung ist zwingend erforderlich. Folge für Hochrisiko-Systeme: Conformity Assessment, technische Dokumentation und Registrierung in der EU-Datenbank vor Produktivgang.[5]

2

Bias-Prüfung der Trainingsdaten

Vor dem Einsatz muss dokumentiert sein, auf welchen Populationen das System trainiert und validiert wurde. Unterrepräsentation bestimmter Gruppen (Alter, Geschlecht, Ethnizität) führt zu systematisch schlechteren Ergebnissen für diese Gruppen — mit direkten klinischen Konsequenzen.[4]

3

Human-in-the-Loop verbindlich verankern

Art. 14 des EU AI Act verlangt bei Hochrisiko‑Systemen, dass eine angemessene Zahl geschulter Personen die Anwendung überwacht und Systemempfehlungen korrigieren oder außer Kraft setzen kann. Das Überwachungsprotokoll muss schriftlich definiert sein: Wer prüft was, unter welchen Bedingungen kann überstimmt werden, wie wird dokumentiert?[5][11]

4

Datenschutz-Folgenabschätzung (DPIA)

Bei der Verarbeitung von Gesundheitsdaten durch KI-Systeme ist eine Datenschutz-Folgenabschätzung (DPIA) nach Art. 35 DSGVO in der Regel verpflichtend — insbesondere bei umfangreicher Verarbeitung besonderer Datenkategorien (Art. 9 DSGVO). Sie muss vor dem Produktivbetrieb vorliegen.[3]

5

Post-Market-Monitoring etablieren

KI-Performance degradiert über Zeit (Data Drift, Populationsveränderungen). Kontinuierliches Monitoring ist keine optionale Best Practice, sondern regulatorische Anforderung: Art. 72 EU AI Act verpflichtet Anbieter von Hochrisiko-KI zu einem Post-Market-Monitoring-System; MDR Art. 83 schreibt dies für KI-Medizinprodukte ebenfalls vor — inklusive Incident-Reporting-Pflicht.[5]

6

Patientenrechte aktiv kommunizieren

Art. 50 EU AI Act verpflichtet Betreiber von KI-Systemen mit Patientenkontakt zur Transparenz über den KI-Einsatz. Patient:innen haben das Recht zu erfahren, wenn KI bei ihrer Behandlung eingesetzt wird, können Erklärungen verlangen und KI-gestützte Entscheidungen hinterfragen. Kliniken und Praxen sind in der Pflicht, diese Rechte proaktiv zu kommunizieren.[5]

Vertiefung

Bias in medizinischen KI-Systemen — Typen und Konsequenzen

Die folgende Tabelle zeigt ausgewählte Beispiele für Bias-Typen, wie sie in der Literatur beschrieben werden. Sie erhebt keinen Anspruch auf Vollständigkeit.

Bias-Typ Entstehung (Beispiel) Konsequenz im Gesundheitswesen
Datenbias KI trainiert auf Datensätzen westlicher Universitätskliniken — oft mit Unterrepräsentation von Frauen, älteren Menschen und nicht-westlichen Bevölkerungsgruppen[2] Schlechtere Diagnosegenauigkeit für unterrepräsentierte Gruppen
Historischer Bias KI lernt aus historischen Behandlungs- und Ressourcenentscheidungen — auch wenn diese systemisch ungerecht waren[4] Reproduktion und Verstärkung vergangener Ungleichheiten bei Ressourcenzuteilung
Messbias Medizinische Geräte wurden für bestimmte Gruppen entwickelt und kalibriert (Beispiel: Pulsoximeter)[9] Fehlerhafte Messwerte fließen in KI-Empfehlungen ein — lebensbedrohlich bei O₂-Sättigung
Labelbias KI lernt von menschlichen Ärzten — einschließlich impliziter Vorurteile in Diagnosen und Dokumentationen[10] Menschliche Vorurteile werden in das KI-System eingebaut und auf großer Skala repliziert
Algorithmischer Bias Proxy-Variablen (z.B. Gesundheitsausgaben statt Krankheitsschwere) als Zielgröße[4] Systematische Benachteiligung von Gruppen mit historisch geringerem Ressourcenzugang
Beispiel: Pulsoximeter-Fehler und KI-Risiko (Sjoding et al., NEJM 2020)[9] Bei einem angezeigten Sauerstoffwert von 92–96 % hatten 11,7 % der Black patients tatsächlich unter 88 % Sauerstoff — gegenüber 3,6 % bei White patients (University of Michigan-Kohorte). Fließen diese fehlerhaften Messsignale in KI-Systeme ein, können lebensbedrohliche Sauerstoffmängel systematisch übersehen werden.

Umsetzungsempfehlung

Ethische Grundprinzipien in der Praxis anwenden

Ethik in der KI-Einführung ist kein separates Workstream — sie muss von Anfang an in die strategische und operative Arbeit eingebaut sein. Die folgenden Empfehlungen beschreiben, wie der Rahmen wirksam umgesetzt werden kann:

Kein Hype — strukturierte Entscheidungsarbeit

Vor jeder KI-Einführungsdiskussion sollte die Frage stehen: Welches Problem soll wirklich gelöst werden? Und ist KI die richtige Lösung — oder entsteht Hype-getriebener Aktionismus ohne klaren Nutzen?

Human-in-the-Loop als Designprinzip

HITL ist nicht nur regulatorische Pflicht, sondern Change-Management-Hebel: Mitarbeitende, die KI-Empfehlungen überstimmen können, entwickeln schneller Vertrauen und Kompetenz im Umgang mit KI-Systemen.

Bias-Audit vor Deployment

Vor dem Produktivgang sollte ein strukturierter Bias-Audit erfolgen: Welche Populationen sind in den Trainingsdaten vertreten? Wo bestehen bekannte Lücken, und wie werden diese dokumentiert?

🤝

Transparenz gegenüber Patienten

Patient:innen haben das Recht zu wissen, wenn KI bei ihrer Behandlung eingesetzt wird. Kliniken und Praxen sollten diese Kommunikation proaktiv, verständlich und niedrigschwellig gestalten.

📋

Governance-Struktur von Anfang an

Verantwortlichkeiten, Eskalationswege und Monitoring-Protokolle müssen vor dem Go-live definiert sein — nicht als nachträgliche Dokumentation, sondern als operative Realität mit klaren Zuständigkeiten.

Systemwirkung mitdenken

KI verändert Workflows, Berufsbilder und Machtstrukturen. Diese Sekundäreffekte auf Versorgungsgerechtigkeit und Mitarbeitende sollten in der Planung explizit adressiert und bewertet werden.

Kostenloses Self-Assessment

Digital Quick Check starten

Wo steht Ihre Organisation digital? In 10–15 Minuten zur fundierten Einschätzung Ihres Digitalen Reifegrads & AI-Readiness — basierend auf validierten Frameworks.

Quick Check starten →

Nachweise

Quellen & Literatur

Hinweis: Diese Seite gibt einen fachlichen Überblick zu ethischen Grundprinzipien und regulatorischen Anforderungen für KI im Gesundheitswesen. Sie ersetzt keine Rechtsberatung. Für verbindliche Auskunft zu regulatorischen Anforderungen wenden Sie sich an qualifiziertes juristisches oder regulatorisches Fachpersonal.

Aktualitätshinweis: Regulatorische Anforderungen — insbesondere zum EU AI Act (2024/1689) und zum EHDS (2025/327) — befinden sich in aktiver Umsetzungsphase. Durchführungsbestimmungen, Leitlinien und nationale Umsetzungsmaßnahmen können sich laufend ändern. Die Angaben auf dieser Seite spiegeln den Stand April 2026 wider und sind regelmäßig zu überprüfen. © 2026 Dipl.-Ing. Katja Kawaschinski MPH.
KI-unterstützte Erstellung — EU AI Act Art. 50
Teile dieser Seite wurden mit Unterstützung generativer KI erstellt und anschließend fachlich geprüft und verantwortet. Es handelt sich nicht um automatisch generierte Inhalte ohne menschliche Kontrolle. Gemäß EU AI Act Art. 50 (Transparenzpflicht) wird auf den KI-Einsatz hingewiesen.
← Zurück zum Profil