KI-gestütztes Vorprüfungs- und Dokumentationssystem für AI-Use-Cases: risikobasierte Triage, regulatorisches Retrieval, Compliance-Memo und Human-in-the-Loop-Governance.
Die manuelle Triage ist langsam, inkonsistent und risikobehaftet. Eine Unterklassifikation kritischer Fälle kann zu nicht-konformen Anwendungen und potenziellen Patientenschäden führen; eine Überklassifikation bindet knappe Expert:innenressourcen. RCI löst dieses Spannungsfeld durch einheitliche Eingaben, maschinelle Vorbewertung und verpflichtende menschliche Prüfung.
Die Kernlogik ist risikobasiert: Niedrig-riskante interne Tools werden schneller durch standardisierte Kontrollen geführt; HCP- oder patientennahe Anwendungen, medizinische Zweckbestimmung, personenbezogene Daten oder komplexe Vendor-Konstellationen lösen vertiefte Prüfung aus. Damit wird RCI zum Steuerungsinstrument für Innovation unter Compliance-Bedingungen.[3,4]
HITL-Design verhindert Automation Bias nicht automatisch – die unkritische Akzeptanz konfidenter KI-Outputs ist ein dokumentiertes Patientensicherheitsrisiko.[15,16]
Primäres Ziel: HIGH-Class Recall — Fehlklassifikation als LOW/MEDIUM ist gefährlicher als Überklassifikation.
Die unterzeichnende Expert:in trägt die professionelle Verantwortung für das finale Compliance-Memo. Die Organisation haftet als Betreiber gemäß EU AI Act Art. 26; der Entwickler ist verantwortlich für transparente Dokumentation der Systemgrenzen. Der unveränderliche Audit Trail ist primärer Evidenzmechanismus bei strittigen Entscheidungen.[16,17]
Grundlage: Vorlesungsskript „AI in Healthcare, Foundation and Technical Methods“ (Abtahi & Astaraki, Karolinska Institutet) sowie die nachfolgenden peer-reviewten Publikationen. Metadaten und DOIs geprüft gegen Primärquellen (Stand: 29. April 2026).