Warum KI-Risikomanagement anders ist
Du kennst Risikomanagement aus ISO 27001 oder ISO 31000. Gut. Aber bei KI gelten andere Regeln. Wer das nicht versteht, baut das falsche System.
Das Missverständnis
Viele Unternehmen denken: "Wir haben ISO 27001. Wir wissen, wie Risikomanagement funktioniert. KI-Risiken packen wir einfach dazu." Das klingt logisch. Ist es aber nicht.
ISO 27001 schützt deine Informationen. ISO 42001 schützt Menschen vor deiner KI. Das ist ein grundlegend anderer Blickwinkel. Und genau dieser Blickwinkel ist es, der KI-Risikomanagement so anders macht.
Bei IT-Risiken geht es um dich
In ISO 27001 oder ISO 31000 ist die Perspektive klar: Was kann deiner Organisation passieren? Datenverlust, Cyberangriff, Systemausfall, Compliance-Verstoß. Die Risiken betreffen dich. Die Maßnahmen schützen dich. Die Bewertung fragt: Wie wahrscheinlich ist es, und wie schlimm wäre es für uns?
Das ist ein bewährtes Modell. Es funktioniert seit Jahrzehnten. Und es reicht für KI nicht aus.
Bei KI-Risiken geht es um zwei Seiten
ISO 42001 verlangt zwei getrennte Bewertungen. Nicht weil die Norm bürokratisch ist, sondern weil KI-Systeme eine Eigenschaft haben, die klassische IT-Systeme nicht haben: Sie treffen Entscheidungen über Menschen.
Das Risk Assessment: Was kann DIR passieren?
Das kennst du. Dein Qualitätskontrolle-System fällt aus. Dein Modell driftet und liefert falsche Ergebnisse. Dein AI Provider ändert sein Modell ohne Vorwarnung. Dein Mitarbeiter gibt Firmendaten in ChatGPT ein. Das sind Risiken für deine Organisation: Haftung, Reputation, finanzielle Verluste, Compliance-Verstöße.
Die Methodik ist ähnlich wie in ISO 27001. Risiken identifizieren, bewerten, behandeln. Du kannst sogar dieselben Skalen und Prozesse verwenden.
Das Impact Assessment: Was kann deine KI ANDEREN antun?
Das ist neu. Und das ist der Punkt, den die meisten unterschätzen.
Dein Bewerbungstool sortiert Lebensläufe vor. Die KI wurde hauptsächlich mit Lebensläufen von Männern trainiert. Frauen werden systematisch schlechter bewertet. Die Bewerberinnen wissen das nicht. Sie bekommen einfach eine Absage und denken, sie waren nicht gut genug.
Das ist kein Risiko für dich im klassischen Sinne. Dein System läuft. Deine HR-Abteilung ist zufrieden, weil sie weniger Bewerbungen lesen muss. Erst wenn jemand klagt oder ein Journalist recherchiert, wird daraus ein Problem für dich.
Aber für die Bewerberinnen ist es sofort ein Problem. Sie werden benachteiligt, und sie können sich nicht dagegen wehren, weil sie nicht wissen, dass eine KI die Entscheidung getroffen hat.
Genau deshalb trennt ISO 42001 die beiden Perspektiven:
Risk Assessment fragt: Was sind die Risiken FÜR deine Organisation? Impact Assessment fragt: Was sind die Auswirkungen AUF Individuen, Gruppen und die Gesellschaft?
Beides ist Pflicht. Beides muss dokumentiert werden. Und beides muss getrennt bewertet werden, auch wenn du es in einem Dokument zusammenfasst.
KI-Risiken verhalten sich anders
Klassische IT-Risiken sind relativ stabil. Ein Server hat eine bestimmte Ausfallwahrscheinlichkeit. Eine Firewall hat bekannte Schwachstellen. Die Bedrohungslandschaft ändert sich, aber langsam und vorhersehbar.
KI-Risiken sind dynamisch. Und zwar auf eine Art, die in der klassischen IT nicht vorkommt.
Model Drift
Dein KI-Modell wurde mit Daten aus 2023 trainiert. Jetzt ist 2026. Die Welt hat sich verändert. Kundenpräferenzen sind anders. Rohstoffe sind anders. Bewerbungsformate sind anders. Aber dein Modell bewertet immer noch nach den Mustern von 2023.
Das passiert nicht über Nacht. Es passiert schleichend, über Wochen und Monate. Dein System liefert immer noch Ergebnisse, aber die Qualität sinkt langsam. Wenn du es merkst, ist der Schaden schon da.
In der klassischen IT gibt es das nicht. Ein Server wird nicht langsam schlechter, ohne dass du es merkst. Ein Virus ist entweder da oder nicht. Model Drift ist ein KI-spezifisches Risiko, das ein KI-spezifisches Monitoring braucht.
Bias
Verzerrungen in KI-Systemen sind kein Bug im klassischen Sinne. Der Code funktioniert einwandfrei. Die Architektur ist korrekt. Aber die Ergebnisse benachteiligen bestimmte Gruppen, weil die Trainingsdaten verzerrt waren oder weil der Algorithmus Muster gelernt hat, die in der realen Welt diskriminierend wirken.
In der klassischen IT ist ein System entweder korrekt oder fehlerhaft. Bei KI kann ein System technisch korrekt und gleichzeitig unfair sein. Das ist ein Risiko, das in keinem traditionellen Risk Assessment vorkommt.
Opazität
Bei klassischer Software kannst du den Code lesen und verstehen, warum eine Entscheidung getroffen wurde. Bei vielen KI-Systemen ist das nicht möglich. Ein neuronales Netz mit Millionen von Parametern trifft Entscheidungen, die selbst die Entwickler nicht im Detail erklären können.
Das ist kein Mangel, das ist eine Eigenschaft der Technologie. Aber es macht Risikomanagement grundlegend anders. Du kannst das Risiko nicht durch Code-Review minimieren. Du brauchst andere Methoden: Validierung an Testdaten, Monitoring im Betrieb, regelmäßige Stichproben, statistische Fairness-Tests.
Emergentes Verhalten
Große Sprachmodelle zeigen Fähigkeiten, die nicht explizit trainiert wurden. ChatGPT kann Gedichte schreiben, obwohl es dafür nicht optimiert wurde. Das klingt beeindruckend, hat aber eine Kehrseite: Das System kann auch Dinge tun, die du nicht vorhergesehen hast. Es kann falsche Fakten erfinden (Halluzination). Es kann Anweisungen auf unerwartete Weise interpretieren. Es kann auf bestimmte Eingaben reagieren, die niemand getestet hat.
In der klassischen IT tut Software das, wofür sie programmiert wurde. Nicht mehr, nicht weniger. Bei KI stimmt das nicht mehr.
Was das für dein Risk Assessment bedeutet
Risk Assessment vs. Impact Assessment
Beide sind Pflicht, aber sie betrachten unterschiedliche Perspektiven.
Risk Assessment (Kl. 6.1.2)
Risiken FUER dein Unternehmen. Was kann schiefgehen?
Impact Assessment (Kl. 6.1.4)
Auswirkungen AUF Betroffene. Wen betrifft deine KI?
Wenn du schon ISO 27001 hast, kannst du die Methodik übernehmen. Aber du musst die Risikokategorien erweitern:
Klassische IT-Risiken (kennst du schon): Verfügbarkeit, Vertraulichkeit, Integrität, Compliance
KI-spezifische Risiken (kommen dazu): Bias und Diskriminierung, Model Drift und Leistungsverfall, Opazität und fehlende Erklärbarkeit, Halluzination und falsche Ergebnisse, Datenschutz bei Trainingsdaten, Abhängigkeit von externen Modellen und Providern, Shadow AI und unkontrollierte Nutzung, Autonomierisiken bei automatischen Entscheidungen
Und du brauchst das Impact Assessment als zweite Perspektive, die in ISO 27001 so nicht existiert.
Governance ist das Einfachste
Hier kommt der Punkt, den viele nicht hören wollen: Die Governance-Struktur aufzubauen ist der leichtere Teil. Policy schreiben, Rollen definieren, Scope festlegen. Das sind Dokumente. Die kann man in wenigen Wochen erstellen.
Das Risikomanagement ist der Teil, der echte Arbeit macht. Weil er nicht einmal erledigt wird und dann in der Schublade liegt. Sondern weil er lebt:
Dein Modell ändert sich? Neues Risk Assessment. Dein Provider aktualisiert sein Modell? Neues Risk Assessment. Neue Mitarbeitergruppe ist betroffen? Neues Impact Assessment. Neues KI-System wird eingeführt? Beides.
Das Risikomanagement ist der Motor deines AIMS. Die Governance ist das Gehäuse. Ohne Motor fährt nichts.
Was das für dich bedeutet
Wenn du denkst "wir haben ISO 27001, also können wir KI-Risikomanagement", hast du einen Vorsprung. Aber du brauchst drei Erweiterungen:
Erstens: Ein separates Impact Assessment neben deinem Risk Assessment. Zwei Perspektiven, nicht eine.
Zweistens: KI-spezifische Risikokategorien in deinem bestehenden Risikokatalog. Bias, Drift, Halluzination, Opazität, Shadow AI.
Drittens: Dynamisches Monitoring. Nicht einmal im Jahr prüfen, sondern laufend. Weil sich KI-Systeme verändern, auch wenn du nichts änderst.
Wenn du das verstanden hast, hast du den größten konzeptionellen Sprung von klassischer IT zu KI-Governance gemacht.
→ Klausel 6: Planung und Risk Assessment → Wie die Engine dein Risk Assessment prüft → Zurück zur Übersicht
Begriffe in diesem Artikel: Risk Assessment, Impact Assessment, Model Drift, AI Bias, Opazität, Halluzination, Emergentes Verhalten, Shadow AI, ISO 27001, ISO 31000, ISO 42001, Human Oversight, Monitoring, Validation