Zum Inhalt springen

Von Kontrolle zu Vertrauen – wie Unternehmen den Wandel gestalten, wenn KI-Agenten handeln


Einleitung

Wenn KI-Agenten selbstständig Aufgaben übernehmen, Entscheidungen vorbereiten oder Prozesse ausführen, entsteht bei vielen Führungskräften die gleiche Frage: Kann ich dieser Technologie vertrauen? Und meine Antwort darauf lautet: Im Prinzip ja – wenn wir sie kontrollieren und ihnen Leitplanken einbauen.

Vertrauen in Technik ist nichts Neues. Wir leben täglich damit – und handeln, als wäre es selbstverständlich. In diesem Artikel versuche ich zu zeigen, was Unternehmen konkret tun können, um Vertrauen in KI-Agenten aufzubauen.


Können wir Technik vertrauen?

Wenn ich – was selten genug passiert – in den Urlaub fahre, lasse ich den Kühlschrank weiterlaufen. Seit uns im Kinderzimmer das Wasser aus der Heizung lief, am Tag, bevor wir aufbrechen wollten, denke ich kurz darüber nach, ob ich den Haupthahn für unsere Wohnung schließen sollte – lasse es aber im Allgemeinen. Selbst wenn der Pilot im Flugzeug den Autopilot einschaltet, bekommen weder ich noch die Mitreisenden Panik. Nun: die Systeme sind ausgereift, so dass sie zuverlässig funktionieren – auch wenn ich und vielleicht auch die Anderen die zugrunde liegenden Algorithmen und Regelkreise nicht verstehen.

Zwischenfazit für mich: Ich vertraue der Technik täglich in unzähligen Fällen.

Können wir KI vertrauen?

Da muss ich mal nachdenken. Vertraue ich meinem Navi, wenn es mich zum Termin in einer mir unbekannten Stadt ans Ziel bringen soll? Check. Vertraue ich der Gesichtserkennung, die mein Handy entsperrt? Check. Vertraue ich meinem Virenscanner und meiner Firewall, wenn sie versuchen mich im Autopilot-Modus vor den schlimmsten Gefahren des „produktiven Internets“, wie es ein liebenswerter Bekannter ausdrückt, zu schützen? Zähneknirschend: Check. Müßte ich diese Aufgaben manuell selbst wahrnehmen, dann wäre das die reinste Katastrophe.

Nächstes Zwischenfazit für mich: Ich vertraue auch KI täglich und zum Teil, ohne es zu merken.

Regelkreise und „human in the loop“

Ich finde Regelkreise super. Erstens, weil sie mir die Arbeit ersparen, ständig am Heizungsregler zu drehen oder Gaspedal und Bremse zu betätigen. Zweitens – und jetzt spricht der Geoökologe in mir – weil sie zum Beispiel in der Natur Viefalt erlauben, weit über das hinaus, was wir (bisher) kontrollieren können. Man stelle sich vor, wir müßten als „human in the loop“ kontrollieren, ob die Bienen korrekt die richtigen Blüten bestäuben, damit wir am Ende ausreichend Nahrung haben.

Kontrolle macht dort Sinn, wo wir dem Ganzen (noch) nicht vertrauen, oder aus anderen – zum Beispiel moralischen oder gesellschaftlichen – Gründen, die menschliche Entscheidung bewusst einbinden wollen.

Nächstes Zwischenfazit für mich: In zahlreichen Bereichen der Künstlichen Intelligenz, bei deren aktuellem Entwicklungsstand und der Ausprägung unserer bisherigen Kompetenz im Umgang mit dieser neuen Technologie sowie unseres bisherigen Vertrauens in sie erscheint mir ein „human in the loop“ durchaus gerechtfertigt sein.

KI-Agenten sind neu – deshalb braucht es „human in the loop“

Hand auf’s Herz:

  • Wer kann aus dem Hut den Carnot-Prozess seines Kühlschranks erklären?
  • Oder den Suchalgorithmus seines Navis?
  • Beziehungsweise die Funktionsweise des Autopiloten in der Firewall seines Computers?

Warum brauchen wir hier keinen „human in the loop?“. Wenn der Kühlschrank überhitzt und das Haus deshalb abbrennt, ist der Schaden schließlich auch erheblich.

Daher nächstes Zwischenfazit für mich: Sobald KI-Agenten zuverlässig innerhalb der gesetzten Grenzen funktionieren, kann ich überlegen den „human in the loop“ auch wegzulassen. Spätestens dann, wenn wir zu dem Schluss kommen, dass der KI-Agent besser arbeitet als der Mensch – was auch immer „besser“ dann bedeutet, wird diese Diskussion an Fahrt aufnehmen.

Dies vorweggeschickt. Nun aber zu stärker pragmatisch lösungsorientierten und weniger anektodischen Gedanken, wie wir in Unternehmen konkret damit umgehen könnten.


Konkrete Maßnahmen: Von Kontrolle zu Vertrauen

1. Zielorientierte Delegation statt Schrittsteuerung

Was bedeutet das konkret?

  • Statt jede Aktion zu kontrollieren, brauchen Agenten konkret bestimmbare Parameter (z. B. Budgetlimits, Qualitätsmaßstäbe, Ausnahmen).
  • Sie dürfen dann innerhalb dieser Rahmen autonom handeln.
  • Die Bewertung erfolgt anhand ihrer Leistungsparameter (KPIs), nicht über jeden Arbeitsschritt.

Beispiel:
Ein Agent, der Angebotsentwürfe erstellt, darf automatisch Formulierungen wählen und Anpassungen am Volumen vornehmen, solange das Budget ≤ 10 % über der Schätzung liegt. Eine Mensch greift nur ein, wenn diese Grenze überschritten wird.

2. Transparenz & Nachvollziehbarkeit

Warum?
Damit Vertrauen entstehen kann, müssen Entscheidungen von KI-Agenten für Menschen nachvollziehbar sein. Transparenz ist hier ein Schlüssel.

Beispiele für Maßnahmen:

  • Audit-Trails und Logbücher für KI-Agenten einführen
  • Agenten-Antworten mit Quellen oder Dokumentreferenzen ausstatten
  • Fehlerbeispiele offenlegen und analysieren (z. B. „Warum hat der Agent hier falsch entschieden?“)

Zur Analogie:
Organisationen, die Transparenz in Arbeitsprozessen fördern, berichten häufiger von hohem Vertrauen und psychologischer Sicherheit. (Vgl. dazu Issah Iddrisu, Understanding the nexus between organizational culture and trust: The mediating roles of communication, leadership, and employee relationships, sciencedirect.com↗.)

3. Feedback- und Lernschleifen etablieren

Wie kann das aussehen?

  • Regelmäßige Retrospektiven, in denen Menschen Agentenverhalten bewerten
  • In Agenten integriertes „Lessons Learned“-Modul, das aus Nutzerfeedback lernt
  • Eingriffe bewusst an bestimmten Punkten – z. B. wenn ein Agent falsche Entscheidungen trifft

Beispiel:
Nach jedem Monat erhält die/der Verantwortliche einen Report: Welche Agentenentscheidungen stimmten mit menschlichem Urteil überein? Wo gab es Divergenzen? Daraus wird Handlungsbedarf abgeleitet.

4. Kompetenzaufbau & Rollenentwicklung

Hintergrund:
Menschen wachsen mit KI-Agenten neue Rollen zu: Sie werden zu Autoren und Moderatoren, die Agenten konzeptionieren, auditieren und weiterentwickeln.

Hilfreiche Maßnahmen:

  • Trainings zu „Prompting als Führungsaufgabe“
  • Schulungen für Erklärbarkeit von KI-Systemen (Explainable Artificial Intelligence, kurz: XAI), Datenkompetenz
  • Rollenklarheit: Wer steuert Agenten? Wer kontrolliert sie?

Praxisbeispiel:
Einführung interner Kompetenzzentren und Supportfunktionen zum effektiven Einsatz von Künstlicher Intelligenz an den Stellen, an denen die größten Hebel sind.

5. Vertrauen schrittweise aufbauen

Wie könnte ein Vorgehen aussehen?

  • Geginnen mit low-risk Tasks (z. B. interne Vorschläge, Recherchen).
  • (Frühe) Erfolge (früh) sichtbar machen.
  • Communities aufbauen, die Erfahrungen innerbetrieblich transparent auswerten und lernen.
  • Die Kompetenz Schritt für Schritt auf weitere geeigente Aufgaben erweitern.

Fahrplan: Schritt-für-Schritt zur Vertrauenskultur mit KI-Agenten

PhaseFokusMaßnahmenDauer ab
0: VorbereitenStakeholder Alignment, Ziele definierenWorkshops, Zieldefinition, Governance-Richtlinien1–2 Wochen
1: Pilotieren und Transparenz schaffenKontrolle mit klaren Rahmen erlaubenAgent für low-risk Use Case, Log-Mechanismen einbauen4 Wochen
2: Feedback und AnpassenLernen & FeinabstimmungRetros, KPI-Analyse, Parameter verbessern4–6 Wochen
3: Skalieren und Kulturarbeit leistenVertrauen aufbauen & Kultur fördernTrainings, Rollout in weitere Aufgaben, Kommunikations-Offensive8–12 Wochen
4: Erreichtes institutionalisierenNachhaltigkeit sichernGovernance-Richtlinien, Ethik-Komitee, KPI-Dashboardsdauerhaft

Risiken & Stolpersteine

  • Überforderung & Vertrauensbruch: Wenn Agenten zu früh zu viel machen dürfen, kann Fehlverhalten die Entstehung von Vertrauen schnell beschädigen.
  • Black-Box-Effekt: Wenn Agenten ohne Transparenz funktionieren, wächst Misstrauen bei Mitarbeitenden.
  • Fehlerkultur: Beim Aufbau der Regelkreise wird es Fehler geben. Es gilt daraus zu lernen, anstatt sich Vorwürfe zu machen, und das System besser zu machen.
  • KI für Alles: „Wollen wir auch KI mit aufschreiben“, wenn es um Lösungsfindung geht, reicht nicht. Es gilt, KI konkret an den wertbringendsten Hebeln einzusetzen.

Fazit

Der gut organisierte Wandel von Kontrolle zu Vertrauen ist essenzieller Bestandteil der organisationsgerechten Einführung von KI-Agenten. Wenn es gelingt funktionierende Regelkreise aufzubauen, wird Vertrauen möglich. Der Weg führt über:

  • Delegation mit klaren Rahmenbedingungen
  • Transparenz über Funktionsweisen, Erfolge und (Fehl-)Entscheidungen
  • Etablierung von Regelkreisen, Feedbackkultur & Weiterentwicklung
  • Kompetenzerweiterung
  • Vertrauensaufbau schrittweise und in Phasen

Wenn wir diesen Weg bewusst und geplant gehen, können KI-Agenten von technischen Assistenten zu wertvollen Unterstützern im Wandel werden – die wir irgendwann auch weiterlaufen lassen, wenn wir mal in den Urlaub fahren.