<\!DOCTYPE html> KI im Gesundheitswesen – Grundlagen, Chancen und Risiken | Dipl.-Ing. Katja Kawaschinski MPH
>1.000
KI-Medizinprodukte FDA-zugelassen (2024)[3]
variabel
Halluzinationsrate med. LLMs – teils bis 20% berichtet[2]
6
Lernmodule
7
EU-HLEG-Prinzipien vertrauenswürdiger KI[1]
Worum geht es?

Die Schulungsmodule richten sich an Mitarbeitende mit und ohne Vorkenntnisse und vermittelt in sechs Modulen das notwendige Grundlagenwissen, um KI im Gesundheitswesen zu verstehen, zu beurteilen und verantwortungsvoll einzusetzen. Sie wurde auf Basis peer-reviewter Quellen und geltender EU-Regulatorik erstellt und redaktionell überprüft.

Das Material kombiniert technische Grundlagen (KI/ML/Deep Learning, Algorithmen, Foundation Models) mit klinischer Praxis (Anwendungsfelder, Metriken, Prompting), ethischen Prinzipien und rechtlichem Rahmen (EU AI Act, DSGVO, MDR). Wichtig ist das Verständnis, dass KI kein neutrales Werkzeug ist – jedes System spiegelt die Daten und Entscheidungen wider, aus denen es gebaut wurde.

Sechs Module im Überblick

Lerninhalte

01

Grundbegriffe: KI, ML & Deep Learning

Begriffsunterscheidung, ML-Lerntypen (supervised/unsupervised/reinforcement), klassische Algorithmen (Decision Trees bis Neural Networks), Foundation Models und LLMs. Stärken und Grenzen im klinischen Kontext.

02

Anwendungsfelder im Gesundheitswesen

Radiologie (81 % aller FDA-KI-Devices, Jan. 2021–Juni 2024[3]), Sepsis-Früherkennung, automatische ICD-10-Kodierung, Wearable-Monitoring, Arzneimittelentwicklung, Genomik. Chancen und reale Fehlerrisiken im Alltag.

03

Metriken: Sensitivität, Spezifität, Prävalenz

Trade-off zwischen Sensitivität und Spezifität, Bedeutung der Prävalenz (Base-Rate-Problem), warum ein auf Krankenhauspatienten trainiertes Modell im Wearable-Einsatz bis zu 99 % Fehlalarme produzieren kann.

04

Bias & Fairness – Warum KI diskriminieren kann

Repräsentationsbias, historischer Bias, Messbias (Pulsoximeter), Label Bias. Das mathematische Fairness-Dilemma. XAI-Methoden (SHAP, Grad-CAM). Bias-Audits als regulatorische Pflicht (EU AI Act Anhang III).[4],[5]

05

Ethik & Recht: EU AI Act, DSGVO, MDR

7 EU-HLEG-Anforderungen an vertrauenswürdige KI,[1] EU AI Act (Hochrisiko: Bußgelder bis 15 Mio. EUR / 3% Jahresumsatz; verbotene Praktiken Art. 5: bis 35 Mio. EUR / 7%),[4],[5] DSGVO Art. 9 (keine Patientendaten in unkontrollierte LLMs), MDR/IVDR und EHDS.[4],[5]

06

Praxis: Prompting, Patientengespräch, Dokumentation

Effektives Prompting (Kontext, Rolle, Quellen einfordern, Unsicherheit adressieren), Transparenzpflicht bei KI-Einsatz (EU AI Act Art. 13 & 50),[4],[5] KI-Empfehlung und ärztliche Entscheidung separat dokumentieren.

Einordnung

Für wen und warum

Die Unterlage schließt eine konkrete Lücke in vielen Gesundheitsorganisationen: Mitarbeitende, die täglich mit KI-Outputs arbeiten oder KI-Einführungsprojekte begleiten sollen, haben häufig keine Möglichkeit, fundiertes Grundlagenwissen aufzubauen. Ohne dieses Wissen können weder Stärken noch Grenzen realer KI-Systeme eingeschätzt werden – mit direkten Folgen für Patientensicherheit, Compliance und Vertrauen.

Die Inhalte folgen dem europäischen Regulierungsrahmen und sind explizit für ein nicht-technisches Publikum aufbereitet. Alle Aussagen wurden quellenkritisch geprüft.

SchulungKI-GrundlagenEU AI Act DSGVOBias & FairnessHealth Literacy
Anfrage stellen →

Kostenloses Self-Assessment

Digital Quick Check starten

Wo steht Ihre Organisation digital? In 10–15 Minuten

⚠ Haftungsausschluss

Dieses Material wurde mit größtmöglicher Sorgfalt erstellt. Es ersetzt keine rechtliche, medizinische oder fachliche Beratung. Keine Gewähr für Vollständigkeit und Aktualität.

Hinweis: KI-unterstützte Erstellung (EU AI Act Art. 50)

Teile dieses Dokuments wurden mit Unterstützung generativer KI erstellt und redaktionell geprüft. Gemäß EU AI Act Art. 50 wird auf den KI-Einsatz transparent hingewiesen.