

Es gab eine Ära, in der „Governance“ der Stoff für Policies, Organigramme und Audit-Agenden war. Man schrieb Richtlinien, legte Rollen fest, dokumentierte Risiken – und hoffte, dass all das im Ernstfall trägt. Diese Ära endet. Mit dem AI Act und dem Cyber Resilience Act (CRA) rückt die EU Governance an den Ort, an dem sich Wahrheit nicht vertuschen lässt: in die Produktentwicklung und den Betrieb. Plötzlich zählt nicht mehr, ob eine Regel existiert, sondern ob Ihr Produkt – Hardware, Software, Service, Modell – unter Last das hält, was Ihr Governance-Papier verspricht. Governance wird zur Produktprüfung. Wer das als Bürokratie empfindet, hat den Kern verfehlt. Wer es als Chance begreift, baut die Brücke zwischen Recht, Risiko und Ingenieursarbeit – und gewinnt Geschwindigkeit, Vertrauen und Marktzugang.
Warum dieser Bruch? Weil zwei Bewegungen zusammentreffen. Erstens KI-basierte Funktionen durchdringen Produkte quer durch alle Branchen – vom Risiko-Scoring in der Bank über visuelle Inspektionen in der Fertigung bis zu generativen Assistenten in SaaS-Plattformen. Zweitens zwingt die Digitalisierung der Lieferketten praktisch jedes Produkt, „mit dem Internet“ zu sprechen – und damit angreifbar zu sein. Wenn Fehlentscheidungen eines Modells diskriminieren können und eine Schwachstelle im Update-Mechanismus Hunderttausende Geräte trifft, dann reichen schöne Policies nicht mehr. Die EU schlägt daraus zwei Fäden: AI Act (Fokus: verantwortliche KI) und CRA (Fokus: durchgängig sichere Produkte mit digitalen Elementen). Beide Fäden laufen in derselben Mechanik zusammen: Konformität = Fähigkeit + Nachweis. Fähigkeit entsteht in Architektur, Code, Daten und Betrieb. Nachweis entsteht in Tests, Telemetrie und technischer Dokumentation.
Die Erzählung vom AI Act beginnt oft mit Risikoklassen. Ja, die Einordnung in verbotene, hochrisikobehaftete, „begrenzte“ und andere Zwecke strukturiert Pflichten. Aber in der Praxis wirken diese fünf Linien weit stärker:
Wer jetzt an Medizinprodukte denkt, liegt nicht falsch: Der AI Act bringt die Denke regulierter Produkte in die Breite – mit KI-spezifischem Vokabular, aber der gleichen Grundlogik: „Sag, was du tust. Tu, was du sagst. Belege, dass es wirkt.“
Für leistungsfähige generative Modelle verschiebt der AI Act den Schwerpunkt zusätzlich: systemische Risiken und Missbrauchsgefahren müssen adressiert werden. Das heißt: Red-Team-Tests gegen Prompt-Injection, Jailbreaks, toxische Inhalte, Datenschutzlecks; Eval-Suiten für Halluzinationen, Sicherheit und Fairness; Content-Provenance und Kennzeichnung; Dokumentation zu Trainingsdaten, Energie- und Umweltaspekten; Governance für Foundation-Modelle und deren Downstream-Nutzung. Kurz: Nicht nur „funktioniert der Bot?“, sondern „verhält er sich unter Angriff so, dass wir es vertreten können?“ Und wieder ist das Ergebnis ein Beleg – nicht eine Selbstauskunft.
Der CRA dreht die Schraube auf der Infrastrukteseite. Produkte mit digitalen Elementen – Software, eingebettete Systeme, IoT – müssen sicher entwickelt, ausgeliefert, betrieben und gepflegt werden. Die Pflichten klingen vertraut, werden aber erstmals gesetzlich durchdekliniert:
Auch hier gilt: Produktprüfung statt Papierkontrolle. Nicht „wir haben Policies“, sondern „unsere Firmware-Signierkette ist reproduzierbar, unsere Updates verifizierbar, unsere Schwachstellen werden innerhalb definierter Fristen geschlossen, und hier sind die Belege.“
AI Act und CRA sind unterschiedliche Gesetze – aber im Maschinenraum treffen sie sich. In beiden Fällen verlangt die Aufsicht die gleiche harte Linie:
So wird Governance vom Meeting zur Maschine: sichtbar, reproduzierbar, auditfähig.
Kein Thema kippt AI-Projekte schneller als unklare Datenherkunft. Der AI Act zwingt zur Ordnung: Datenkataloge mit Quellen, Lizenzen, Einwilligungen; Qualitätsregeln (Vollständigkeit, Konsistenz, Label-Güte); Kontrollmechanismen gegen Leakage (Train/Test-Separation, PII-Filter, synthetische Daten), Dokumente wie Model Cards und Data Sheets. Für generative Systeme kommen Provenance-Mechanismen hinzu: Wasserzeichen, Metadaten, Hash-Verweise. Für CRA-Reife passt es nahtlos: SBOM dokumentiert Komponenten; DBOM/MBOM dokumentieren Daten- und Modellartefakte. Das Ergebnis ist Erklärbarkeit – technisch, rechtlich, ethisch.
Der CRA überführt gängige Security-SDL-Praktiken in Pflichten: Bedrohungsmodellierung, sichere Architektur (Least Privilege, Defense in Depth), Secure Coding, statische/dynamische Analysen, Dependency-Management, Secrets-Handling, Signierung, reproduzierbare Builds, gehärtete Update-Pfade (OTA mit Fail-Safe, Anti-Rollback, Key-Rotation). Die Aufsicht fragt nicht, ob Sie das „wollen“, sondern ob Sie es tun – und wie Sie es messen:
Wer diese Metriken „lebt“, erfüllt nicht nur den CRA – er reduziert Incidents und Kosten.
Für KI gilt eine zusätzliche Prüfdisziplin: Sicherheit inhaltlicher Entscheidungen. Das ist neu für viele Engineering-Teams. Es bedeutet:
Auch hier ist der rote Faden: Gates, Metriken, Nachweise – nicht „wir achten darauf“.
Die Governance-Organisation ändert sich. Notwendig sind Rollen, die mancherorts neu sind:
Wichtig: Diese Rollen brauchen Mandat. Ohne Freigaberecht wird Compliance zum Zuschauer.
Beide Gesetze stützen sich auf harmonisierte Normen. Wer sie anwendet, profitiert von Vermutung der Konformität. In der Praxis bilden Häuser Mappings: AI-Anforderungen ↔ ISO/IEC 42001 (AI-MS), ISO/IEC 23894 (AI-RM), ISO/IEC 27001/27002, ISO/IEC 27034 (Application Security), ISO/IEC 29119 (Test), ISO/IEC 25010 (Qualität), ETSI/EN-Reihen; CRA-Anforderungen ↔ EN/IEC-Familien (Secure Development, Update, 62443 für OT), ENISA-Leitfäden. Aber Vorsicht: Standards sind Werkzeug, kein Feigenblatt. Die Aufsicht prüft Wirksamkeit – nicht Zitationsdichte.
Sowohl AI Act als auch CRA drehen den Scheinwerfer in die Nutzungsphase. Das ist der Prüfstand, auf dem Governance den Beweis antreten muss:
Das Ergebnis ist messbar: kürzere MTTR, weniger Folgeschäden, besseres Vertrauen – und robuste Audit-Spuren.
AI Act und CRA schauen durch Ihre Verträge hindurch auf die Fähigkeit. Daraus folgt ein anderes Sourcing:
So wird aus „Third Party Risk“ eine führbare Disziplin.
Gute Governance ist nicht datenschwach, sondern entscheidungsstark. Fünf Familien reichen, wenn sie konsequent sind:
Jede Zahl hat Schwelle, Owner, Eskalation, Frist, Re-Check. Sonst bleibt sie Tapete.
IoT-Hersteller
Firmware-Update-Kette gehärtet (Signaturen, Anti-Rollback, Recovery-Partition), SBOM in jedem Release, Telemetrie für Update-Erfolg, PSIRT mit 72h-Kommunikationsfenster, CVD-Prozess mit Bug-Bounty-Integration. Ergebnis: schnelleres Patchen, weniger Feldschäden, CE-Belege auf Knopfdruck.
SaaS mit generativen Funktionen
Eval-Suite vor jedem Release (Faktentreue, Safety), Red-Team-Routinen (Injection, DLP, Policy), Guardrail-Layer mit Moderation und Retrieval-Prüfungen, Kill-Switch-fähiger Rollout, Model-/Data-Drift-Monitore. Ergebnis: niedrigere Risikoexposition, klare AI-Dokumentation, weniger Eskalationen.
Finanz-Dienstleister
AI-Scoring als High-Risk-Use-Case: Daten-Lineage inkl. Lizenzlage, Feature-Kontrollen gegen Proxy-Diskriminierung, Human-Oversight in Grenzfällen, CAPA-Zyklen aus Vorfallsanalysen; CRA-seitig Härtung und Telemetrie für Kunden-Apps. Ergebnis: Prüf-Sicherheit und geringerer Reputationsdruck bei Fehlern.
Monat 1–2
Produktlandschaft und KI-Use-Cases klassifizieren (Intended Use, Risiko, CRA-Kritikalität); Design-Faktoren festhalten (Bedrohung, Datenlage, Lieferkette); Gate-Katalog ableiten (AI/CRA-Pflichten → Tests → Akzeptanzkriterien); Rollen mit Mandat benennen (Product Compliance Owner, PSIRT/AI-Safety, Data/Model Steward).
Monat 3–4
CI/CD mit Gates bestücken (SAST/DAST, IaC-Checks, Signierung, SBOM-Erzeugung, Eval-Suiten, Red-Team-Minimums); Evidence-Ablage (versioniert, unveränderlich, Populationslogik); CVD mit Triage-SLA aufsetzen; erste SBOM-Ausrollung; Daten-/Modell-Lineage initial dokumentieren.
Monat 5
Post-Market-Telemetry und Incident-Backbone: Signale, Schwellen, Eskalation, Meldeschienen; Tabletop-Übungen (Vorfall, Meldung, Kundenkommunikation); Restore-Übungen mit Integritätsbeleg; Red-Team-Sprint; Lieferanten-Scorecards (Meldezeiten, SLA, Security-KPI).
Monat 6
Probe-Audit „Operating Effectiveness“: Stichproben an Gates, SBOM-Abgleich, CVD-Fälle, Eval-Ergebnisse, Restore-Logs, Drift-Reports; Lücken schließen, Re-Tests terminieren; Evidence-Days und quartalsweise Kohärenz-Reviews institutionalisiert; Management-Reporting auf Entscheidungen umgestellt.
Danach ist Konformität kein Ausnahmezustand, sondern Betrieb. AI Act & CRA laufen „by design“ – nicht „by Aufregung“.
Ja, Gates kosten Zeit. SBOMs, Evals, Red-Team-Zyklen, CVD – alles Aufwand. Aber die Gegenrechnung ist simpel: weniger Incidents, kürzere Ausfälle, weniger Rückrufe, bessere Versicherungskonditionen, stärkere Verhandlungsposition gegenüber Kunden und Aufsicht. Vor allem: Vertrauen. Produkte, die unter Druck bestehen, verkaufen sich besser – und kommen schneller durch Beschaffungsschleusen, in denen AI- und CRA-Konformität zum KO-Kriterium wird.
„AI Act & CRA: Wenn Governance plötzlich zur Produktprüfung wird“ ist keine Drohung, sondern eine Präzisierung. Governance war immer die Kunst, Risiken so zu steuern, dass Ziele erreichbar bleiben. Neu ist, dass dieser Nachweis im Produkt geführt werden muss – im Code, im Modell, im Update, im Telemetrie-Trail. Das klingt nüchtern und ist doch befreiend: Weg von Erklärstücken, hin zu funktionierender Realität. Wer seine Produktentwicklung an Gates, Metriken und Evidenz ausrichtet, erfüllt nicht nur Gesetze. Er baut Systeme, die halten. Und Halt ist die knappste Ressource in einer Welt, die schneller und vernetzter wird, als jedes Policy-Dokument jemals sein kann.
Hinweis: Teile dieses Beitrags könnten unter Einsatz von KI-gestützten Tools erstellt oder überarbeitet worden sein. Weitere Informationen finden Sie im Impressum/Disclaimer. | Marken- und Bildrechte: Dargestellte Logos und genannten Marken liegen ausschließlich bei den jeweiligen Rechteinhabern. Nutzung erfolgt ausschließlich zu illustrativen Zwecken. |
Wenn Sie den Blog-Beitrag abonnieren, senden wir Ihnen eine E-Mail, sobald es Updates auf dieser Website gibt.