Glossar: ISO 42001 von A bis Z
Alle Fachbegriffe, die dir auf dieser Seite und in der Norm begegnen. Deutsch und Englisch, praxisnah erklärt.
A
Adequacy (Angemessenheit) Eine der drei Bewertungsdimensionen im Management Review. Fragt: Sind die Ressourcen und Prozesse des AIMS ausreichend für den Zweck?
AI Bias (KI-Verzerrung) Systematische Benachteiligung bestimmter Gruppen durch ein KI-System. Entsteht häufig durch einseitige Trainingsdaten. Ein Bewerbungstool, das hauptsächlich mit männlichen Lebensläufen trainiert wurde, könnte Frauen systematisch schlechter bewerten.
AI Customer (KI-Nutzer) Die Organisation, die ein KI-System für eigene Zwecke einsetzt. Wenn du eine KI-Lösung gekauft oder entwickeln lassen hast und sie in deinem Betrieb nutzt, bist du der AI Customer.
AI Management System (AIMS) Ein strukturierter Rahmen aus Dokumenten, Prozessen, Rollen und Kontrollen, der sicherstellt, dass KI verantwortungsvoll eingesetzt wird. Kein Softwareprodukt, sondern ein Managementsystem.
AI Objectives (KI-Ziele) Messbare Ziele, die das AIMS erreichen soll. Müssen zur AI Policy passen und nach dem SMART-Prinzip formuliert sein. Definiert in Klausel 6.2.
AI Partner Organisation, die Komponenten, Daten oder Integrationen zur KI-Lieferkette beiträgt. Zum Beispiel ein Cloud-Provider, ein Datenlieferant oder ein Integrator.
AI Policy (KI-Richtlinie) Das zentrale Dokument, das die Grundsätze und Verpflichtungen deiner Organisation im Umgang mit KI festlegt. Muss sieben Anforderungen erfüllen (Klausel 5.2) und als Documented Information vorliegen.
AI Producer (KI-Entwickler) Wer das KI-System tatsächlich gebaut und trainiert hat. Kann der AI Provider sein, muss aber nicht. Dein internes Data-Science-Team ist auch ein AI Producer.
AI Provider (KI-Anbieter) Das Unternehmen, das die KI-Lösung bereitstellt. Kann ein Technologiekonzern, ein Startup oder ein Systemhaus sein.
AI Risk Assessment (KI-Risikobewertung) Systematische Bewertung der Risiken, die von KI-Systemen ausgehen. Muss dokumentiert werden (Klausel 6.1.2) und regelmäßig durchgeführt werden (Klausel 8.2).
AI Subject (Betroffene Person) Die Person oder Entität, über die ein KI-System Entscheidungen trifft oder Informationen ableitet. Bewerber, Kunden, Mitarbeiter, Patienten. Die am häufigsten vergessene Stakeholder-Gruppe.
AI User (KI-Anwender) Die Person, die ein KI-System im Alltag bedient. Dein Schichtleiter, dein Sachbearbeiter, dein Qualitätsprüfer.
Annex A Anhang zur Norm mit 38 Controls (Maßnahmen), die angewendet werden können. Welche du anwendest, dokumentierst du im Statement of Applicability. Normativ.
Annex B Umsetzungshinweise zu den Controls aus Annex A. Nicht verpflichtend, aber hilfreich. Normativ.
Applicable Requirements (anwendbare Anforderungen) Alle Gesetze, Normen, Verträge und Branchenstandards, die für dein Unternehmen im KI-Kontext gelten. Zum Beispiel EU AI Act, DSGVO, IATF 16949.
Audit (Prüfung) Systematische und unabhängige Untersuchung, ob dein AIMS den Anforderungen entspricht und wirksam ist. Siehe Internal Audit.
Awareness (Bewusstsein) Die drei Dimensionen, die jeder AIMS-relevante Mitarbeiter kennen muss: die AI Policy, den eigenen Beitrag und die Konsequenzen bei Nichteinhaltung (Klausel 7.3).
C
Competence Evidence (Kompetenznachweise) Dokumentierte Belege dafür, dass Personen die nötige Kompetenz für ihre AIMS-relevante Rolle haben. Schulungszertifikate, Teilnahmelisten, Erfahrungsnachweise. Pflichtdokumentation (Klausel 7.2).
Conformity (Konformität) Übereinstimmung mit den Anforderungen. Wenn dein AIMS alle Norm-Anforderungen erfüllt, ist es konform.
Context of the Organization (Kontext der Organisation) Dein Umfeld: externe Faktoren (Regulierung, Markt, Technologie) und interne Faktoren (Kompetenz, Kultur, Infrastruktur). Klausel 4.1.
Continual Improvement (Kontinuierliche Verbesserung) Der Grundsatz, dass dein AIMS nie "fertig" ist, sondern sich ständig weiterentwickelt. Ergibt sich aus Audit-Findings, Management Reviews und laufendem Monitoring (Klausel 10.1).
Controls (Maßnahmen) Konkrete Maßnahmen, die Risiken behandeln. Die 38 Controls aus Annex A reichen von AI Policy über Data Quality bis Third-Party Management.
Correction (Sofortmaßnahme) Die unmittelbare Reaktion auf eine Abweichung. Das Symptom wird behandelt. Unterscheide von Corrective Action.
Corrective Action (Korrekturmaßnahme) Die ursachenbezogene Maßnahme, die verhindert, dass eine Abweichung erneut auftritt. Die Wurzel wird behandelt. Unterscheide von Correction.
D
Decision Support (Entscheidungsunterstützung) Die niedrigste Autonomiestufe einer KI. Das System liefert Informationen, der Mensch entscheidet selbst.
Deep Learning Eine Unterkategorie des Machine Learning, die auf neuronalen Netzen mit vielen Schichten basiert. Ermöglicht Bild-, Sprach- und Texterkennung auf menschlichem Niveau.
Documented Information (Dokumentierte Information) Information, die eine Organisation kontrollieren und aufrechterhalten muss. Muss versioniert, freigegeben, gepflegt und auffindbar sein. Zwölf Pflichtdokumente in ISO 42001.
E
Effectiveness (Wirksamkeit) Eine der drei Bewertungsdimensionen im Management Review. Fragt: Erreicht das AIMS seine Ziele?
EU AI Act Die EU-Verordnung über Künstliche Intelligenz (Verordnung 2024/1689). Die weltweit erste umfassende KI-Regulierung. Stuft KI-Systeme in Risikoklassen ein und definiert Pflichten für Hochrisiko-Systeme.
F
Fully Autonomous Die höchste Autonomiestufe einer KI. Das System entscheidet und handelt ohne menschliche Kontrolle. Unterliegt den strengsten Anforderungen.
G
General AI / AGI (Allgemeine Künstliche Intelligenz) Eine hypothetische KI, die jede intellektuelle Aufgabe eines Menschen erledigen könnte. Existiert nicht. Abgrenzen von Narrow AI.
GenAI / Generative AI (Generative Künstliche Intelligenz) KI-Systeme, die neue Inhalte erzeugen: Texte, Bilder, Code, Audio. Beispiele: ChatGPT, Midjourney, GitHub Copilot. Trotz beeindruckender Fähigkeiten eine Form von Narrow AI.
H
High-Level Structure (HLS) Die einheitliche Grundstruktur aller modernen ISO-Managementsystemnormen. Klauseln 4 bis 10 sind identisch aufgebaut, egal ob ISO 9001, 27001 oder 42001. Ermöglicht Integration.
High-Risk System (Hochrisiko-System) Ein KI-System, das unter dem EU AI Act besonders strengen Anforderungen unterliegt. Beispiele: KI im Recruiting, in der Kreditvergabe, in der medizinischen Diagnostik.
Human Oversight (Menschliche Aufsicht) Die Anforderung, dass ein Mensch KI-Entscheidungen überwachen und im Zweifel eingreifen kann. Besonders wichtig bei automatisierten Entscheidungen.
I
Impact Assessment (Folgenabschätzung) Bewertung der Auswirkungen deiner KI-Systeme auf Individuen, Gruppen und die Gesellschaft. Unterscheidet sich vom Risk Assessment: Risk Assessment schützt dich, Impact Assessment schützt andere (Klausel 6.1.4).
Intended Outcomes (Beabsichtigte Ergebnisse) Die strategischen Ergebnisse, die dein AIMS erreichen soll. Zum Beispiel: vertrauenswürdige KI, regulatorische Readiness, Haftungsminimierung. Nicht verwechseln mit AI Objectives, die messbar sind.
Interested Parties (Interessierte Parteien) Personen oder Organisationen, die eine AIMS-Aktivität beeinflussen können, davon betroffen sein können, oder sich als betroffen wahrnehmen. Klausel 4.2.
Internal Audit (Internes Audit) Systematische Prüfung des AIMS durch unabhängige Auditoren innerhalb der Organisation. Muss Konformität und Wirksamkeit prüfen (Klausel 9.2).
L
Large Language Model (LLM) Ein großes Sprachmodell, trainiert auf Milliarden von Texten, das Sprache verstehen und erzeugen kann. Basis für ChatGPT, Claude und ähnliche Systeme. Eine Form von Generative AI.
M
Machine Learning (Maschinelles Lernen) Oberbegriff für Methoden, bei denen Computer aus Daten lernen, ohne explizit programmiert zu werden. Umfasst Supervised, Unsupervised, Reinforcement und Semi-Supervised Learning.
Major Nonconformity (Schwerwiegende Abweichung) Ein Audit-Finding, das zeigt, dass eine wesentliche Anforderung der Norm nicht erfüllt ist. Zum Beispiel: kein dokumentierter Scope, keine AI Policy, kein Risk Assessment. Muss vor der Zertifizierung behoben werden.
Management Review (Managementbewertung) Regelmäßige Bewertung des AIMS durch das Top-Management. Muss Suitability, Adequacy und Effectiveness prüfen und dokumentierte Ergebnisse liefern (Klausel 9.3).
Model Drift (Modellabweichung) Das schleichende Verschlechtern eines KI-Modells, weil sich die Eingabedaten oder die Umgebungsbedingungen verändern. Eine typische unbeabsichtigte Änderung, die erkannt und kontrolliert werden muss.
Monitoring (Überwachung) Die laufende Beobachtung und Messung deiner KI-Systeme und AIMS-Prozesse. Muss geplant, durchgeführt und dokumentiert werden (Klausel 9.1).
N
Narrow AI (Schwache KI) KI, die eine bestimmte Aufgabe sehr gut kann, aber nicht auf andere Aufgaben übertragbar ist. Alles, was heute in Unternehmen im Einsatz ist, ist Narrow AI.
Nonconformity (Abweichung / Nichtkonformität) Jede Nichteinhaltung einer Anforderung. Kann intern entdeckt (Audit) oder extern gemeldet werden (Klausel 10.2).
P
PDCA-Zyklus (Plan-Do-Check-Act) Der Grundrhythmus aller ISO-Managementsysteme. Planen, umsetzen, prüfen, verbessern. Wiederholt sich endlos.
Purpose (Zweck) Der Existenzgrund deiner Organisation. Nicht der Zweck des AIMS, sondern warum dein Unternehmen existiert. Ein Maschinenbauer baut Maschinen.
R
Reinforcement Learning (Bestärkendes Lernen) Lernmethode, bei der ein System durch Versuch und Irrtum lernt. Belohnung für gute Ergebnisse, Bestrafung für schlechte.
Risk Treatment Plan (Risikobehandlungsplan) Dokument, das für jedes identifizierte Risiko festlegt, welche Maßnahme ergriffen wird, wer verantwortlich ist und bis wann. Pflichtdokument (Klausel 6.1.3).
S
Scope (Geltungsbereich) Die Definition, was dein AIMS umfasst: welche KI-Systeme, welche Abteilungen, welche Standorte, welche Prozesse. Muss als Documented Information vorliegen. Pflichtdokument (Klausel 4.3).
Semi-Supervised Learning Lernmethode, die wenige gelabelte und viele ungelabelte Daten kombiniert.
Shall (Muss) Das wichtigste Wort in der Norm. "Shall" bedeutet: verbindliche Anforderung. Kein Ermessensspielraum. Wenn die Norm sagt "shall", musst du es tun.
Should (Sollte) Empfehlung in der Norm. Du solltest es tun, kannst aber begründet davon abweichen.
Statement of Applicability / SoA (Erklärung zur Anwendbarkeit) Dokument, das alle 38 Controls aus Annex A auflistet und für jede sagt: Wir wenden sie an, oder wir wenden sie nicht an (mit Begründung). Muss vom Top-Management genehmigt werden. Pflichtdokument (Klausel 6.1.3).
Suitability (Eignung) Eine der drei Bewertungsdimensionen im Management Review. Fragt: Passt das AIMS noch zu unserem Kontext?
Supervised Learning (Überwachtes Lernen) Lernmethode, bei der das System mit gelabelten Beispielen trainiert wird. Jedes Trainingsbeispiel hat eine richtige Antwort.
T
Top-Management (Oberste Leitung) Die Personen, die eine Organisation auf höchster Ebene leiten und steuern. In Deutschland: Geschäftsführung, Vorstand, Inhaber. Trägt die Ultimate Accountability für das AIMS.
U
Ultimate Accountability (Letztverantwortung) Die nicht delegierbare Gesamtverantwortung. Liegt immer beim Top-Management. Der CTO kann operativ verantwortlich sein, aber die Ultimate Accountability bleibt bei der Geschäftsführung.
Unsupervised Learning (Unüberwachtes Lernen) Lernmethode, bei der das System ohne Labels Muster und Strukturen in Daten findet.