\!DOCTYPE html>
Sechsmoduliges Grundlagenmodul für Mitarbeitende ohne Vorkenntnisse: von KI/ML-Grundbegriffen über Bias & Fairness bis zu EU AI Act und praktischem Prompting.
Die Schulungsmodule richten sich an Mitarbeitende mit und ohne Vorkenntnisse und vermittelt in sechs Modulen das notwendige Grundlagenwissen, um KI im Gesundheitswesen zu verstehen, zu beurteilen und verantwortungsvoll einzusetzen. Sie wurde auf Basis peer-reviewter Quellen und geltender EU-Regulatorik erstellt und redaktionell überprüft.
Das Material kombiniert technische Grundlagen (KI/ML/Deep Learning, Algorithmen, Foundation Models) mit klinischer Praxis (Anwendungsfelder, Metriken, Prompting), ethischen Prinzipien und rechtlichem Rahmen (EU AI Act, DSGVO, MDR). Wichtig ist das Verständnis, dass KI kein neutrales Werkzeug ist – jedes System spiegelt die Daten und Entscheidungen wider, aus denen es gebaut wurde.
Begriffsunterscheidung, ML-Lerntypen (supervised/unsupervised/reinforcement), klassische Algorithmen (Decision Trees bis Neural Networks), Foundation Models und LLMs. Stärken und Grenzen im klinischen Kontext.
Radiologie (81 % aller FDA-KI-Devices, Jan. 2021–Juni 2024[3]), Sepsis-Früherkennung, automatische ICD-10-Kodierung, Wearable-Monitoring, Arzneimittelentwicklung, Genomik. Chancen und reale Fehlerrisiken im Alltag.
Trade-off zwischen Sensitivität und Spezifität, Bedeutung der Prävalenz (Base-Rate-Problem), warum ein auf Krankenhauspatienten trainiertes Modell im Wearable-Einsatz bis zu 99 % Fehlalarme produzieren kann.
Repräsentationsbias, historischer Bias, Messbias (Pulsoximeter), Label Bias. Das mathematische Fairness-Dilemma. XAI-Methoden (SHAP, Grad-CAM). Bias-Audits als regulatorische Pflicht (EU AI Act Anhang III).[4],[5]
7 EU-HLEG-Anforderungen an vertrauenswürdige KI,[1] EU AI Act (Hochrisiko: Bußgelder bis 15 Mio. EUR / 3% Jahresumsatz; verbotene Praktiken Art. 5: bis 35 Mio. EUR / 7%),[4],[5] DSGVO Art. 9 (keine Patientendaten in unkontrollierte LLMs), MDR/IVDR und EHDS.[4],[5]
Effektives Prompting (Kontext, Rolle, Quellen einfordern, Unsicherheit adressieren), Transparenzpflicht bei KI-Einsatz (EU AI Act Art. 13 & 50),[4],[5] KI-Empfehlung und ärztliche Entscheidung separat dokumentieren.
Die Unterlage schließt eine konkrete Lücke in vielen Gesundheitsorganisationen: Mitarbeitende, die täglich mit KI-Outputs arbeiten oder KI-Einführungsprojekte begleiten sollen, haben häufig keine Möglichkeit, fundiertes Grundlagenwissen aufzubauen. Ohne dieses Wissen können weder Stärken noch Grenzen realer KI-Systeme eingeschätzt werden – mit direkten Folgen für Patientensicherheit, Compliance und Vertrauen.
Die Inhalte folgen dem europäischen Regulierungsrahmen und sind explizit für ein nicht-technisches Publikum aufbereitet. Alle Aussagen wurden quellenkritisch geprüft.
Kostenloses Self-Assessment
Wo steht Ihre Organisation digital? In 10–15 Minuten
Dieses Material wurde mit größtmöglicher Sorgfalt erstellt. Es ersetzt keine rechtliche, medizinische oder fachliche Beratung. Keine Gewähr für Vollständigkeit und Aktualität. Teile dieses Dokuments wurden mit Unterstützung generativer KI erstellt und redaktionell geprüft. Gemäß EU AI Act Art. 50 wird auf den KI-Einsatz transparent hingewiesen.