Wissenschaftlich fundiert
Validated Assessment Tool • Healthcare

Digitaler Reifegrad & AI-Readiness
im Gesundheitswesen

Ein wissenschaftlich fundiertes Selbstassessment für Führungskräfte in Healthcare-Organisationen. Basiert auf validierten Frameworks der digitalen Reifegradforschung und AI-Readiness-Literatur.

15 Fragen • ca. 8–12 Minuten 5 wissenschaftlich hergeleitete Dimensionen Ampel-Einschätzung mit Handlungsempfehlung Anonym • keine Datenspeicherung
🔒

Datenschutz & Hinweis: Ihre Antworten werden ausschließlich lokal in Ihrem Browser verarbeitet – keine Übertragung, keine Speicherung. Dieses Tool ist ein Orientierungsinstrument, kein validiertes klinisches Assessment. Ergebnisse ersetzen keine professionelle Beratung. Teile der Inhalte wurden mit KI-Unterstützung erstellt (EU AI Act Art. 50).

Wissenschaftliche Grundlage & Methodik

Dieser Digital Quick Check synthetisiert drei etablierte Frameworks der internationalen Healthcare-Digitalisierungsforschung zu einem praxistauglichen Selbstassessment-Instrument für Führungskräfte.

Die fünf Dimensionen des Quick Checks wurden aus einem systematischen Review von 27 validierten Reifegradmodellen im Healthcare-Bereich [2] sowie dem AIR-5D Framework für AI-Readiness in Gesundheitsorganisationen [4] abgeleitet. Ergänzend wurden Erkenntnisse aus dem deutschen DigitalRadar-Programm [6] und dem HIMSS EMRAM-Modell [1] einbezogen.

#DimensionWissenschaftliche BasisIndikatoren (Auswahl)
D1 Führung & Governance Duncan et al. 2022 [2]: „Governance and Management“; AIR-5D [4]: „Risk, Privacy & Governance“ Leadership, Change Management, Compliance, Risikomanagement, Daten-Governance
D2 Prozess-Stabilität & IT-Kapazität Duncan et al. 2022 [2]: „IT Capability“ + „Interoperability“; HIMSS EMRAM Stages 1–4 [1] Prozessstandardisierung, IT-Zuverlässigkeit, Systemintegration, Interoperabilität
D3 Datenqualität & Analytics Duncan et al. 2022 [2]: „Data Analytics“; AIR-5D [4]: „Data Management“ (Gewicht: 0,22) Datenerfassung, Qualitätssicherung, Nutzung für Entscheidungen, Daten-Governance
D4 Veränderungsbereitschaft & Kultur Duncan et al. 2022 [2]: „People, Skills and Behavior“; Kotter (2012) & ADKAR; Borghouts et al. 2021 [7] Stakeholder-Einbindung, Fehlerkultur, Kompetenzentwicklung, Führungskultur
D5 Fokus & AI-Readiness AIR-5D [4]: „Opportunity Discovery“ (Gewicht: 0,44 – höchste Priorität); HAIRA [5] Use-Case-Identifikation, AI vs. Digitalisierung-Unterscheidung, Entscheidungskriterien

Das Instrument verwendet eine 5-stufige Likert-Skala (1 = trifft gar nicht zu bis 5 = trifft voll zu) – konsistent mit dem validierten Instrument von Duncan et al. für Allgemeinpraxen (JMIR 2025) [8] sowie Best Practices aus der Skalierungsforschung [9]. Drei Fragen je Dimension (min. 3, max. 15 Punkte) ergeben einen Gesamtscore von 15–75 Punkten.

Die Schwellenwerte für die Ampel-Einschätzung wurden aus drei Quellen hergeleitet:

  • Untere Schwelle (45% = 34/75): Der mittlere DigitalRadar-Score deutscher Krankenhäuser betrug 2021 ø 33,3 Punkte (100-Punkte-Skala), 2024 ø 42,5 Punkte [6]. Dies entspricht 33–43% der maximal erreichbaren Punktzahl. Die untere Schwelle (45%) wurde konservativ über dem deutschen Durchschnitt 2021 angesetzt, da der Quick Check spezifisch Mindestvoraussetzungen für AI-Readiness prüft.
  • Obere Schwelle (73% = 55/75): Im AIR-5D Framework entspricht der Übergang vom „Developing“- zum „Optimizing“-Stadium einem Score von 3,5/5 (70%) [4]. Angepasst auf die 75-Punkte-Skala (3 Items × 5 Dimensionen) ergibt dies 52,5 Punkte, aufgerundet auf 55 (73%) um Messfehler bei Selbstbeurteilung zu kompensieren [9].
  • Validität: Nur 15,8% der US-Krankenhäuser erreichen Advanced Digital Maturity (EMRAM 6–7) [3], was bestätigt, dass eine grüne Bewertung anspruchsvoll bleiben sollte.

Hinweis: Dieser Quick Check ist ein Screening-Instrument, kein validiertes klinisches Assessment. Ergebnisse dienen der Orientierung und Entscheidungsunterstützung, nicht der wissenschaftlichen Benchmarkierung.

Bewertungsmaßstab (Benchmark)

🔴 Grundlagen fehlen
15–34 Punkte (<45%)
Digitale Basis nicht ausreichend für AI. Fundament-Investitionen priorisieren.
🟡 Entwicklungspotenzial
35–54 Punkte (46–72%)
Partielle Readiness. Fokus und Priorisierung notwendig. AI punktuell möglich.
🟢 Gute digitale Basis
55–75 Punkte (≥73%)
Digitale Voraussetzungen für gezielte AI-Exploration sind erfüllt.

Benchmark-Herleitung: DigitalRadar DE 2024 (ø42.5/100) [6] • AIR-5D Developing/Optimizing-Schwelle 3.5/5 [4] • EMRAM Advanced Level 6–7 (15.8% der US-Krankenhäuser) [3]

▶️

Quick Check starten

Sie beantworten 15 Fragen in 5 Dimensionen. Bewerten Sie jede Aussage aus Sicht Ihrer gesamten Organisation – nicht einzelner Abteilungen.

Es gibt keine richtigen oder falschen Antworten. Antworten Sie so ehrlich wie möglich. Die Ergebnisse werden nicht gespeichert und nicht weitergeleitet.

1
Dimension 1: Führung & Governance
Basis: Duncan et al. (2022) [2]: „Governance and Management“; AIR-5D [4]: „Risk, Privacy & Governance“
F1.1  Die digitale Strategie unserer Organisation ist schriftlich dokumentiert und von der Geschäftsführung verabschiedet. [2,6]
Duncan et al. 2022: „Strategy“ als eine der 7 Kerndimensionen digitaler Reife. DigitalRadar DE: „Strukturen & Systeme“ mit schriftlicher Digitalstrategie als Grundindikator.
Warum relevant: Fehlende oder informelle Digitalstrategie ist der häufigste Treiber von Fehlentscheidungen bei Digitalisierungsprojekten.
Trifft gar nicht zuTrifft voll zu
F1.2  Es gibt eine klar benannte Verantwortlichkeit (Rolle/Person) für Digitalisierungsentscheidungen auf Leitungsebene. [2,4]
Duncan et al. 2022: „Leadership and Management“ als Kernsindikator in Governance-Dimension. AIR-5D: Governance-Strukturen als Voraussetzung für AI-Readiness.
Warum relevant: Ungeklärte Entscheidungszuständigkeiten verzögern Projekte und führen zu Parallelstrukturen.
Trifft gar nicht zuTrifft voll zu
F1.3  Regulatorische Anforderungen (DSGVO, MDR, EU AI Act) werden bei digitalen Entscheidungen systematisch bewertet. [4,5]
AIR-5D: „Risk, Privacy & Governance“ (Gewicht 0,101). HAIRA: Compliance als Kernelement von 7 AI-Governance-Domänen. EU AI Act (2024) verpflichtet Healthcare-Akteure zu Risikobewertung vor AI-Einsatz.
Warum relevant: Der EU AI Act (2024) klassifiziert viele Healthcare-AI-Anwendungen als Hochrisiko-Systeme mit spezifischen Compliance-Anforderungen.
Trifft gar nicht zuTrifft voll zu
2
Dimension 2: Prozess-Stabilität & IT-Kapazität
Basis: Duncan et al. (2022) [2]: „IT Capability“ + „Interoperability“; HIMSS EMRAM Stages 1–4 [1]
F2.1  Unsere Kernprozesse sind standardisiert, dokumentiert und werden regelmäßig überprüft. [2,6]
Duncan et al. 2022: Prozessstabilität als Voraussetzung für sinnvolle Digitalisierung. DigitalRadar DE: „Klinische Prozesse“ als eine der schwachen Dimensionen deutscher Krankenhäuser.
Warum relevant: AI optimiert bestehende Prozesse – instabile oder undokumentierte Prozesse werden durch AI nicht verbessert, sondern als Fehler skaliert.
Trifft gar nicht zuTrifft voll zu
F2.2  Unsere IT-Systeme sind zuverlässig, aktuell und werden systematisch gewartet. [1,2]
HIMSS EMRAM Stage 1: Vollständige Integration von Labor-, Imaging- und Apothekensystemen als Basis-Anforderung. Duncan et al. 2022: „IT Capability“ als fundamentale Dimension.
Warum relevant: Veraltete oder instabile IT-Infrastruktur ist der häufigste technische Blocker für AI-Implementierungen.
Trifft gar nicht zuTrifft voll zu
F2.3  Unsere digitalen Systeme können Daten strukturiert miteinander austauschen (Interoperabilität). [1,2]
Duncan et al. 2022: „Interoperability“ als eigenständige Reifegraddimension. HIMSS EMRAM Stage 6–7 setzt voraus, dass Daten ohne Medienbruch zwischen Systemen fließen können.
Warum relevant: Fehlende Interoperabilität verhindert den Datenzugang, der für AI-Trainings- und Inferenzprozesse zwingend erforderlich ist.
Trifft gar nicht zuTrifft voll zu
3
Dimension 3: Datenqualität & Analytics
Basis: Duncan et al. (2022) [2]: „Data Analytics“; AIR-5D [4]: „Data Management“ (Gewicht 0,22)
F3.1  Unsere Daten werden systematisch erfasst, strukturiert gespeichert und auf Qualität geprüft. [4,10]
AIR-5D: Data Management als zweitwichtigste AI-Readiness-Dimension (Gewicht 0,22). Wasylewicz & Scheepers-Hoeks (2019): Datenqualität als kritischer Erfolgsfaktor für klinische AI-Anwendungen.
Warum relevant: „Garbage in, garbage out“ – AI-Modelle sind nur so gut wie die Qualität der Daten, auf denen sie trainiert und angewendet werden.
Trifft gar nicht zuTrifft voll zu
F3.2  Wir nutzen Daten aktiv und regelmäßig für Entscheidungen (z.B. Dashboards, Reportings, Analysen). [2,3]
Duncan et al. 2022: Daten-getriebene Entscheidungskultur als Indikator für Reifegradebene „Analytics“. Adler-Milstein et al. 2024: Höhere digitale Reife korreliert signifikant mit besserer Qualität und Patientensicherheit.
Warum relevant: Organisationen, die keine datenbasierte Entscheidungskultur besitzen, können AI-Outputs weder bewerten noch sinnvoll nutzen.
Trifft gar nicht zuTrifft voll zu
F3.3  Es gibt klare Zuständigkeiten für Datenqualität, Daten-Governance und Datenzugang. [4,5]
AIR-5D: Data Management umfasst explizit Governance-Strukturen für Datenzugang. HAIRA: „Algorithm Development“ und „Data Governance“ als eigenständige AI-Governance-Domänen.
Warum relevant: Ungeklärte Datenzuständigkeiten gefährden AI-Projekte erheblich – Gartner (2025) zufolge können 60 % der KI-Projekte ihre Ziele nicht erreichen, wenn keine AI-bereiten Daten vorliegen. Die Angabe „6–18 Monate“ ist eine Expertenschätzung ohne gesicherte Primärquelle und wurde entfernt.
Trifft gar nicht zuTrifft voll zu
4
Dimension 4: Veränderungsbereitschaft & Kultur
Basis: Duncan et al. (2022) [2]: „People, Skills and Behavior“; PMC 2021 [7]: Change Management in europäischen Krankenhäusern
F4.1  Mitarbeitende und klinische Fachkräfte werden frühzeitig und aktiv in digitale Transformationsprozesse eingebunden. [7,11]
Borghouts et al. 2021 (PMC8625074, 5 europäische Länder, N=132 Krankenhäuser): „Erheblicher Verbesserungsbedarf beim Einsatz formaler CHM-Tools.“ Konkrete 50%-Angabe konnte nicht aus der Originalpublikation verifiziert werden – bitte direkt prüfen. Ärzte und Pflegepersonal sind entscheidende Enabler oder Blocker. ADKAR: Einbindung als Grundvoraussetzung für erfolgreichen Wandel.
Warum relevant: Mangelnde Einbindung klinischer Fachkräfte ist der häufigste nicht-technische Grund für das Scheitern von Digitalisierungsprojekten im Healthcare.
Trifft gar nicht zuTrifft voll zu
F4.2  Unsere Führungskultur unterstützt Experimente, erlaubt Lernen aus Fehlern und akzeptiert Unsicherheit im digitalen Wandel. [7,2]
Duncan et al. 2022: „Cultural Values“ als Kernsindikator der Governance-Dimension. PMC 2021: Fehlertoleranz und psychologische Sicherheit als signifikante Prädiktoren für erfolgreiche digitale Innovation in europäischen Krankenhäusern.
Warum relevant: Risikoaverse Führungskulturen ohne Fehlertoleranz blockieren Innovation und AI-Exploration systematisch – unabhängig von der technischen Ausstattung.
Trifft gar nicht zuTrifft voll zu
F4.3  Es gibt gezielte Maßnahmen zur Entwicklung digitaler Kompetenzen aller relevanten Mitarbeitendengruppen. [2,12]
Duncan et al. 2022: „People, Skills and Behavior“ als eine von 7 Kerndimensionen – inkl. Kompetenzentwicklung und Digital-Fluency. WHO Europe (2025): Digital Health Workforce-Entwicklung als strategische Priorität in 53 europäischen Mitgliedsstaaten.
Warum relevant: Technologie ohne kompetente Nutzung erzeugt keinen Mehrwert – Digital-Kompetenz-Lücken zählen zu den Top-3-Implementierungsbarrieren im Healthcare (WHO Europe 2025).
Trifft gar nicht zuTrifft voll zu
5
Dimension 5: Fokus & AI-Readiness
Basis: AIR-5D [4]: „Opportunity Discovery“ (höchste Priorität, Gewicht 0,44); HAIRA [5]: „Problem Formulation“
F5.1  Wir haben konkrete, priorisierte Anwendungsfälle (Use Cases) für Digitalisierung und/oder AI identifiziert und bewertet. [4,5]
AIR-5D: „Opportunity Discovery“ ist die gewichtigste AI-Readiness-Dimension (Gewicht 0,44). HAIRA: „Problem Formulation“ als erster und kritischster Schritt in AI-Governance. Fehlende Use-Case-Identifikation ist der häufigste Grund für AI-Projektstarts ohne klares Ziel.
Warum relevant: „Opportunity Discovery“ ist im AIR-5D Framework die mit Abstand wichtigste Dimension (Gewicht 0,44 von 1,0) – ohne klaren Nutzenfall bleibt AI-Adoption folgenlos.
Trifft gar nicht zuTrifft voll zu
F5.2  Wir unterscheiden klar zwischen Digitalisierung (Prozessautomatisierung) und AI (lernende Systeme) und priorisieren entsprechend. [4,5]
AIR-5D: Klares Verständnis von AI-Kategorien als Voraussetzung für strategische Priorisierung. HAIRA: „Problem Formulation“ beinhaltet explizit die Abgrenzung von AI- vs. nicht-AI-Lösungen. Konfundierung beider Konzepte führt zu systematischen Fehlallokationen von Ressourcen.
Warum relevant: Viele Organisationen bezeichnen einfache Automatisierung als „AI“ – oder setzen umgekehrt AI ein, wo konventionelle Digitalisierung ausreichend und kostengünstiger wäre.
Trifft gar nicht zuTrifft voll zu
F5.3  Entscheidungen für den Einsatz von AI werden bei uns anhand klarer Kriterien getroffen (z.B. Nutzennachweis, Risikoklasse, Governance-Anforderungen). [5,4]
HAIRA: „External Product Evaluation“ und „Deployment Integration“ als eigenständige AI-Governance-Domänen. AIR-5D: Systematische Entscheidungskriterien als Kernanforderung für AI-Readiness auf Optimizing-Level. EU AI Act (2024): Risikoklassifizierung als gesetzliche Pflicht für Hochrisiko-AI im Healthcare.
Warum relevant: Der EU AI Act (2024) verpflichtet Healthcare-Organisationen zur Risikobewertung vor AI-Einsatz. Fehlende Entscheidungskriterien erhöhen Haftungsrisiken und gefährden Patientensicherheit.
Trifft gar nicht zuTrifft voll zu
--
von 75 möglichen Punkten
--
--

Wissenschaftliche Einordnung Ihres Ergebnisses

Handlungsempfehlungen

Methodischer Hinweis: Dieses Instrument ist ein strukturiertes Screening-Tool, kein validiertes klinisches oder wissenschaftliches Assessmentverfahren im engeren Sinne. Selbstbeurteilungsinstrumente können durch soziale Erwünschtheit und organisationsinterne Perspektivverzerrung beeinflusst werden [9]. Die Ergebnisse dienen der Orientierung und strategischen Entscheidungsunterstützung. Für eine belastbare Organisationsanalyse empfehlen wir eine ergänzende externe Perspektive (z.B. im Rahmen eines strukturierten Beratungsprozesses).

Referenzen

[1] HIMSS Analytics. Electronic Medical Record Adoption Model (EMRAM): Overview and Stage Descriptions. Healthcare Information and Management Systems Society; 2024. Verfügbar unter: https://www.himss.org/what-we-do-solutions/maturity-models-emram
[2] Duncan R, Eden R, Woods L, Wong I, Sullivan C. Synthesizing Dimensions of Digital Maturity in Hospitals: Systematic Review. J Med Internet Res. 2022;24(3):e32994. DOI: 10.2196/32994. PMID: 35353050. PMC: PMC9008527
[3] Adler-Milstein J, Holmgren AJ, Kralovec P, Worzala C, Searcy T, Patel V. Digital Maturity as a Predictor of Quality and Safety Outcomes in US Hospitals: Cross-Sectional Observational Study. J Med Internet Res. 2024;26:e56316. DOI: 10.2196/56316. PMC: PMC11336495
[4] Velez CM et al. Five Dimensions of AI Readiness (AIR-5D) Framework – A Preparedness Assessment Tool for Healthcare Organizations. Hospital Topics. 2024. DOI: 10.1080/00185868.2024.2427641. PMID: 39543793
[5] Advancing Healthcare AI Governance through a Comprehensive Maturity Model (HAIRA): Based on Systematic Review of 35 Frameworks. npj Digital Medicine. 2026. DOI: 10.1038/s41746-026-02418-7
[6] DigitalRadar Konsortium (HIMSS, HIMSS Analytics, hih). Ergebnisse der nationalen Digitalisierungsmessung deutscher Krankenhäuser – DigitalRadar 2021 & 2024. Bundesministerium für Gesundheit; 2024. Verfügbar unter: HIMSS DigitalRadar 2024
[7] Borghouts J et al. Change Management and Digital Innovations in Hospitals of Five European Countries. Healthcare 2021;9(11):1508. PMC8625074. Int J Environ Res Public Health. 2021;18(21):11579. PMC: PMC8625074
[8] Development and Validation of a Questionnaire to Measure Digital Maturity of General Practitioner Practices: Web-Based Cross-Sectional Survey Study. J Med Internet Res. 2025;27:e81416. DOI: 10.2196/81416
[9] Taherdoost H. A Review of Key Likert Scale Development Advances: 1995–2019. Int J Res Methodol Soc Sci. 2019. PMC: PMC8129175
[10] Wasylewicz ATM, Scheepers-Hoeks AMJW. Clinical Decision Support Systems. In: Kubben P, Dumontier M, Dekker A (eds). Fundamentals of Clinical Data Science. Cham: Springer; 2019. DOI: 10.1007/978-3-319-99713-1_11
[11] Healthcare workers' readiness for artificial intelligence and organizational change: a quantitative study in a university hospital. BMC Health Serv Res. 2025. PMC: PMC12145655
[12] World Health Organization Regional Office for Europe. Artificial Intelligence is Reshaping Health Systems: State of Readiness across the WHO European Region. WHO Europe; 2025. Verfügbar unter: WHO Europe 2025
[13] Digital Medicine Society (DiMe). The Playbook: Implementing AI in Healthcare. Launched October 2025 with Google for Health and 30+ partners. Verfügbar unter: dimesociety.orgGlobale Best-Practice-Referenz. Primär US-Markt (FDA, HIPAA); Governance-, Equity- und Algorithmovigilanz-Prinzipien international anwendbar. Anwendung im europäischen Rechtsrahmen: EU AI Act (VO 2024/1689), DSGVO, MDR 2017/745, EHDS (VO 2023/2854). US-spezifische Regularien (FDA, HIPAA) nicht übertragbar.