Die Governance.
Wissen/Annex A: Die 38 Controls im Überblick

Annex A: Die 38 Controls im Überblick

ISO 42001 sagt dir nicht nur, WAS du tun musst (Klauseln 4 bis 10). In Annex A zeigt sie dir auch, WELCHE konkreten Maßnahmen du ergreifen kannst.


Was Annex A ist

Annex A enthält 38 Controls, also konkrete Maßnahmen, die du in deinem AIMS anwenden kannst. Sie sind in neun Gruppen organisiert und decken alles ab, von der AI Policy über Datensicherheit bis zum Umgang mit Drittanbietern.

Nicht jeder Control ist für jedes Unternehmen relevant. Welche du anwendest, entscheidest du im Statement of Applicability (SoA). Aber für jeden, den du nicht anwendest, musst du begründen warum.

Annex A ist normativ, das heißt er ist fester Bestandteil des Standards. Annex B liefert dazu Umsetzungshinweise, ist ebenfalls normativ, aber nicht verpflichtend umzusetzen.


Die 9 Gruppen

38 Controls in 9 Gruppen (Annex A)

Jede Gruppe adressiert einen Aspekt deines AI Management Systems.

38 Controls total. Im SoA musst du fuer jeden Control begruenden, ob du ihn anwendest oder nicht.

A.2 . AI Policies (Gruppe 1)

Hierher gehört deine grundlegende AI Policy. Aber nicht nur die Policy aus Klausel 5.2, sondern auch themenspezifische Richtlinien, die sich aus deinem Kontext ergeben. Zum Beispiel eine separate Richtlinie für den Umgang mit Trainingsdaten oder eine Richtlinie für die Zusammenarbeit mit externen AI Providern.

Für KMU: Die AI Policy aus Klausel 5.2 reicht für den Anfang. Themenspezifische Richtlinien kommen, wenn dein AIMS wächst.

A.3 . Internal Organization (Gruppe 2)

Hier geht es um die organisatorische Struktur deines AIMS. Wer ist für was verantwortlich? Wie sind die Berichtslinien? Welche Ressourcen stehen bereit? Diese Controls stellen sicher, dass dein AIMS nicht an einer einzelnen Person hängt und dass die Verantwortlichkeiten klar verteilt sind.

Für KMU: Mindestens eine benannte verantwortliche Person, klare Berichtslinie an die Geschäftsführung, dokumentierte Rollenverteilung. In der Musterfirma ist das Thomas Keller als KI-Beauftragter.

A.4 . Resources for AI Systems (Gruppe 3)

Diese Gruppe behandelt die Ressourcen, die du für deine KI-Systeme brauchst: Daten, Werkzeuge, Infrastruktur und das KI-System-Inventar.

A.4.5 AI System Inventory ist besonders wichtig. Du musst wissen, welche KI-Systeme du hast. Das klingt selbstverständlich, aber viele Unternehmen haben keinen vollständigen Überblick. Ein einfaches Register mit System-Name, Zweck, Technologie, Provider, Autonomiegrad und Risikoklasse reicht als Anfang.

Für KMU: Das KI-System-Inventar ist der erste Schritt. Wenn du nicht weißt, was du hast, kannst du es nicht managen. Die Musterfirma hat drei Systeme inventarisiert: ProduktionsOptima, QualiScan und PredMaint.

A.5 . Assessing Impacts of AI Systems (Gruppe 4)

Controls für die Folgenabschätzung. Wie bewertest du die Auswirkungen deiner KI-Systeme auf Menschen, Gesellschaft und Umwelt? Diese Gruppe ergänzt das Impact Assessment aus Klausel 6.1.4 mit konkreten Maßnahmen.

Für KMU: Frag dich für jedes KI-System: Wer ist betroffen? Was passiert im schlimmsten Fall? Dokumentiere die Antworten. Das ist bereits ein Impact Assessment.

A.6 . AI System Lifecycle (Gruppe 5)

Die größte Gruppe. Behandelt den gesamten Lebenszyklus eines KI-Systems, von der Konzeption über die Entwicklung und den Betrieb bis zur Stilllegung.

Wichtige Controls in dieser Gruppe:

A.6.2.2 AI System Design and Development. Wie wird dein KI-System entworfen? Welche Anforderungen werden berücksichtigt? Das betrifft dich auch, wenn du die KI nicht selbst entwickelst, denn du musst sicherstellen, dass dein AI Provider diese Anforderungen einhält.

A.6.2.4 Data Quality. Müll rein, Müll raus. Wenn deine Trainingsdaten verzerrt, unvollständig oder veraltet sind, wird dein KI-System schlechte Entscheidungen treffen. Datenqualität zu sichern ist keine einmalige Aufgabe, sondern ein laufender Prozess.

A.6.2.6 Verification and Validation. Zwei verschiedene Dinge: Verification fragt "Haben wir das System richtig gebaut?" (technische Korrektheit). Validation fragt "Haben wir das richtige System gebaut?" (erfüllt es den Zweck im realen Einsatz). Beides muss stattfinden.

A.6.2.8 AI System Documentation. Dein KI-System muss dokumentiert sein. Nicht der Code im Detail, sondern: Was tut es? Wie funktioniert es? Welche Daten nutzt es? Welche Grenzen hat es? Wer ist verantwortlich?

Für KMU: Du musst nicht jedes Detail selbst dokumentieren. Wenn du eine externe Lösung nutzt, fordere die Dokumentation von deinem AI Provider an. Aber du musst wissen, was du bekommst und was fehlt.

A.7 . Data for AI Systems (Gruppe 6)

Alles rund um Daten: Beschaffung, Qualität, Kennzeichnung, Schutz. Daten sind der Treibstoff deiner KI. Wenn du nicht weißt, woher deine Daten kommen, wie sie aufbereitet wurden und ob sie voreingenommen sind, hast du ein Governance-Problem.

A.7.2 Data Acquisition. Woher kommen deine Daten? Hast du die Rechte, sie zu nutzen? Sind sie rechtmäßig erhoben?

A.7.3 Data Labeling. Wenn du Supervised Learning nutzt, müssen deine Daten gelabelt sein. Wer labelt? Wie wird die Qualität der Labels sichergestellt?

A.7.5 Data Provisioning. Wie werden Daten an das KI-System übergeben? Welche Formate, welche Schnittstellen, welche Kontrollen?

Für KMU: Fang mit der Frage an: Woher kommen die Daten, die meine KI nutzt? Wenn du die Antwort nicht kennst, ist das die erste Lücke.

A.8 . Information for Interested Parties (Gruppe 7)

Transparenz gegenüber deinen Stakeholdern. Welche Informationen musst du bereitstellen? An wen? In welcher Form?

A.8.2 Transparency. Betroffene (AI Subjects) müssen wissen, dass eine KI über sie entscheidet. Kunden müssen wissen, wenn sie mit einem Chatbot sprechen. Mitarbeiter müssen wissen, wenn eine KI ihre Arbeitsplanung beeinflusst.

A.8.4 Reporting. Regelmäßige Berichte über den Zustand deiner KI-Systeme an relevante Stakeholder. Nicht nur intern, auch extern wenn gefordert.

Für KMU: Transparenz ist kein Luxus. Ein Satz auf der Website ("Wir nutzen KI für ...") oder ein Hinweis im Chatfenster ("Sie sprechen mit unserem KI-Assistenten") reicht für den Anfang.

A.9 . Use of AI Systems (Gruppe 8)

Controls für den verantwortungsvollen Einsatz. Wie stellst du sicher, dass deine KI-Systeme korrekt, fair und unter menschlicher Aufsicht verwendet werden?

A.9.2 Responsible Use. Deine Organisation muss Regeln für den verantwortungsvollen Einsatz definieren. Wann darf die KI-Empfehlung übersteuert werden? Wann muss sie übersteuert werden? Wer entscheidet im Zweifel?

A.9.3 Monitoring AI System Performance. Laufende Überwachung der Systemleistung. Nicht nur "läuft es noch", sondern "liefert es noch gute Ergebnisse".

A.9.4 AI System Logs. KI-Entscheidungen müssen nachvollziehbar sein. Logging ist die Grundlage dafür. Welche Entscheidungen wurden getroffen? Auf Basis welcher Daten? Das ist besonders wichtig bei automatisierten Entscheidungen (Stufe 3 und 4).

Für KMU: Definiere für jedes KI-System: Was ist der normale Betrieb? Wann soll der Mensch eingreifen? Dokumentiere das. Und stelle sicher, dass Entscheidungen geloggt werden.

A.10 . Third-Party and Customer Relationships (Gruppe 9)

Controls für den Umgang mit externen Partnern. Wenn du KI von einem Drittanbieter nutzt oder KI an Kunden lieferst, gelten zusätzliche Anforderungen.

A.10.2 Suppliers. Wie steuerst du deinen AI Provider? Welche Anforderungen stellst du an ihn? Wie kontrollierst du die Einhaltung? Das SLA mit deinem KI-Anbieter sollte AIMS-relevante Punkte enthalten: Modell-Updates, Datenverarbeitung, Transparenz.

Für KMU: Wenn du eine externe KI-Lösung nutzt, prüfe den Vertrag. Steht etwas zu Modell-Updates, Datenverarbeitung, Zugangsrechten? Wenn nicht, muss das ergänzt werden.


SoA: Was anwenden, was nicht?

Dein Statement of Applicability (SoA) ist die Karte, die zeigt, welche der 38 Controls du anwendest. Drei Regeln:

1. Die Auswahl muss risiko-getrieben sein. Du wendest einen Control an, weil er ein identifiziertes Risiko behandelt. Nicht weil er in der Norm steht.

2. Ausschlüsse müssen begründet sein. "Nicht anwendbar" reicht nicht. Sag warum. "A.7.3 Data Labeling nicht anwendbar, da unsere KI-Systeme kein Supervised Learning verwenden." Das ist eine Begründung.

3. Das SoA muss vom Top-Management genehmigt werden. Nicht vom KI-Beauftragten, nicht von der IT.

Wichtig: Annex A ja, Annex B nein

Im SoA listest du nur die Controls aus Annex A auf. Die Umsetzungshinweise aus Annex B gehören nicht ins SoA. Annex B ist dein Werkzeugkasten für die Umsetzung, aber er wird nicht im SoA referenziert. Das ist eine häufige Verwechslung.


Für ein KMU mit 3 KI-Systemen: Wo anfangen?

Nicht alle 38 Controls sind sofort relevant. Hier die 10, die für die meisten KMU den größten Unterschied machen:

  1. A.2.2 AI Policy . Hast du eine?
  2. A.3.2 Roles and Responsibilities . Wer ist verantwortlich?
  3. A.4.5 AI System Inventory . Weißt du, was du hast?
  4. A.5.2 AI Impact Assessment . Wen betrifft deine KI?
  5. A.6.2.4 Data Quality . Sind deine Daten sauber?
  6. A.6.2.6 Verification and Validation . Funktioniert das System im echten Einsatz?
  7. A.8.2 Transparency . Wissen Betroffene Bescheid?
  8. A.9.2 Responsible Use . Gibt es Nutzungsregeln?
  9. A.9.3 Monitoring . Überwachst du die Leistung?
  10. A.10.2 Suppliers . Wie steuerst du deinen AI Provider?

Wenn du diese zehn im Griff hast, hast du eine solide Grundlage. Der Rest kommt mit der Reife deines AIMS.

Zurück zur ÜbersichtGlossarSelbstcheck starten


Begriffe in diesem Artikel: Annex A, Annex B, Controls, Statement of Applicability (SoA), AI System Inventory, Data Quality, Verification, Validation, Transparency, Responsible Use, AI Provider, Supplier Management, Impact Assessment, Supervised Learning, AI Subjects