Wenn ein Cyberangriff erfolgt, zählt jede Sekunde. Security-Teams müssen Bedrohungen in Maschinengeschwindigkeit erkennen, bewerten und darauf reagieren, oft unter hohem Druck und mit unvollständigen Informationen. Kein Wunder also, dass KI zu einer zentralen Säule moderner Cyberabwehr geworden ist.

Doch es gibt eine Kehrseite: Wird KI ohne geeignete Leitplanken eingesetzt, entstehen neue Risiken, blinde Flecken und Unklarheiten bei der Verantwortung. Die entscheidende Frage lautet heute nicht mehr, ob KI in der Cybersecurity eingesetzt werden soll, sondern wie sie wirksam und verantwortungsvoll eingesetzt werden kann.

Viele Organisationen setzen seit Jahren auf das „Human-in-the-Loop“-Modell. Dabei generieren KI-Systeme Alerts oder Handlungsempfehlungen, während Analystinnen und Analysten die Entscheidungen prüfen und freigeben. Theoretisch scheint das die ideale Balance zwischen Automatisierung und Kontrolle zu sein.

In der Praxis zeigt sich jedoch häufig ein anderes Bild.

Die Grenzen von „Human-in-the-Loop“

Zwei typische Problemmuster treten immer wieder auf:

  1. Automatisierungs-Übervertrauen
    Wenn KI-Systeme über längere Zeit zuverlässig funktionieren, lässt die kritische Auseinandersetzung durch Menschen schleichend nach. Empfehlungen werden zunehmend routinemässig übernommen.
  2. Alert Fatigue
    Andere Systeme produzieren eine hohe Zahl von Warnmeldungen, die manuell überprüft werden müssen. Die Folge sind Ermüdung, langsamere Reaktionszeiten und ein erhöhtes Risiko, relevante Vorfälle zu übersehen.

In beiden Fällen untergräbt das Modell ungewollt genau jene menschliche Urteilsfähigkeit, die es eigentlich schützen soll.

Von Kontrolle zu gezielter Führung: Guided GenAI

Ein wirkungsvollerer Ansatz ist Guided Generative AI.

Guided GenAI-Systeme liefern nicht nur Entscheidungen. Sie schaffen Kontext und Nachvollziehbarkeit. Sie erklären, warum eine bestimmte Massnahme empfohlen wird, legen Unsicherheiten oder Anomalien offen und machen ihre Entscheidungslogik transparent.

Ebenso wichtig: Sie lenken die Aufmerksamkeit gezielt dorthin, wo menschliches Urteilsvermögen wirklich gefragt ist. Statt jede einzelne Meldung prüfen zu lassen, priorisieren sie jene Incidents, bei denen Erfahrung, Kontextverständnis und ethische Abwägung entscheidend sind.

Das Ergebnis ist nicht weniger menschliche Beteiligung, sondern fokussiertere und wirksamere menschliche Beteiligung.

Verantwortung systematisch verankern: Accountability by Design

Technologie allein genügt nicht. Verantwortungsvolle KI in der Cybersecurity erfordert auch strukturelle Klarheit.

Accountability by Design bedeutet, dass Verantwortlichkeit von Anfang an systematisch eingebaut wird — durch:

  • klare Protokolle
  • transparente Entscheidungsketten
  • definierte Eskalationswege
  • vollständige Auditierbarkeit aller Massnahmen

Verantwortung wird weder einzelnen Personen allein überlassen noch durch komplexe Automatisierung verwischt. Sie ist klar verteilt, dokumentiert und nachvollziehbar.

In diesem Modell behalten Menschen die Kontrolle über Absicht, Interpretation, Ethik und Priorisierung, während KI die skalierbare, konsistente und überprüfbare Ausführung übernimmt.

Dynamische Aufsicht für reale Bedrohungslagen

Nicht jede Situation ist gleich risikoreich — und die Aufsicht sollte sich daran orientieren.

Ein modernes, KI-gestütztes Security Operations Center kann den Grad der menschlichen Aufsicht dynamisch anpassen:

  • Bei hohem Risiko oder Unsicherheit ist eine explizite Freigabe durch Analystinnen und Analysten erforderlich.
  • Bei klar definierten, risikoarmen Szenarien kann das System autonom handeln.
  • In allen Fällen bleiben Entscheidungen auditierbar und transparent.

So richtet sich die Kontrolle nach Risiko und Kontext — nicht nach starren Regeln.

Kognitive Entlastung und höhere Resilienz

Eine realistische und nachhaltige Aufsicht ist entscheidend. Wenn menschliche Kontrolle zu monotonen Routineaufgaben verkommt, entstehen neue blinde Flecken.

Durch gezielte Prüfmechanismen statt repetitiver Kontrollschritte können Organisationen:

  • die kognitive Belastung ihrer Security-Teams senken
  • die Qualität von Entscheidungen erhöhen
  • die operative Resilienz stärken
  • KI wirksam und verantwortungsvoll einsetzen

Ein reiferes Modell für KI in der Cyberabwehr

Die Zukunft der KI in der Cybersecurity liegt weder im vollständigen Ersatz des Menschen noch im Festhalten an starren Kontrollschleifen. Sie liegt in einem durchdachten Zusammenspiel.

Guided GenAI in Kombination mit Accountability by Design steht für ein reiferes Modell: eines, das reale operative Anforderungen anerkennt, menschliche Expertise stärkt und Verantwortung klar verankert.

Angesichts sich ständig weiterentwickelnder Bedrohungen sind Organisationen mit diesem ausgewogenen Ansatz besser gerüstet — um schneller zu reagieren, verantwortungsvoll zu handeln und langfristig Vertrauen in ihre Security Operations aufzubauen.