Warum diese Frage jetzt entscheidend ist
In den ersten beiden Ausgaben haben wir gezeigt, wie sich der Fokus im Handel verschiebt. Von Sichtbarkeit zu Auswahl. Von Benutzeroberflächen zu Systemlogik. Von menschlicher Recherche zu KI-gestützter Entscheidungsvorbereitung.
Spätestens hier entsteht eine Frage, die viele Organisationen aktuell vermeiden:
Wann darf aus einer vorbereiteten Empfehlung eine Handlung werden?
Nicht technisch. Sondern organisatorisch.
Die falsche Debatte: Autonomie als Entweder-Oder
Viele Diskussionen rund um KI kreisen um ein falsches Spannungsfeld. Entweder entscheidet der Mensch. Oder die KI entscheidet autonom.
Diese Logik ist irreführend.
In der Praxis entstehen KI-Systeme nicht als autonome Akteure, sondern als delegierte Handlungseinheiten mit klar definierten Grenzen. Der eigentliche Übergang ist nicht Mensch versus Maschine, sondern implizite versus explizite Entscheidungsregeln.
Die entscheidende Frage lautet deshalb nicht: Darf KI handeln?
Sondern: Welche Entscheidungen sind so klar geregelt, dass sie delegierbar sind?
Warum B2B strukturell im Vorteil ist
B2B-Organisationen arbeiten seit Jahrzehnten mit Regeln. Budgets, Genehmigungsstufen, Vertragskonditionen, Eskalationspfade.
Was oft als Komplexität empfunden wird, ist in Wahrheit ein Vorteil. Denn diese Regeln sind die Voraussetzung dafür, Entscheidungen schrittweise zu delegieren.
B2C muss Entscheidungslogik häufig erst definieren. B2B muss sie sichtbar, konsistent und maschinenlesbar machen.
Drei reale Ebenen der Delegation – mit Beispielen
Aus der Praxis lassen sich drei stabile Muster erkennen. Sie zeigen sehr klar, wo Delegation funktioniert und wo sie scheitert.
1. Vorbereitung ohne Wirkung
Beispiel: Maschinenbau
Ein internationaler Maschinenbauer setzt KI ein, um Angebotsanfragen zu analysieren, Komponenten zu identifizieren und technische Varianten vorzuschlagen. Die KI liefert strukturierte Empfehlungen, inklusive Preis- und Lieferzeitindikationen.
In der Praxis werden diese Vorschläge jedoch kaum genutzt. Warum? Weil Preisentscheidungen historisch bei einzelnen Senior Engineers liegen und deren Entscheidungslogik nie explizit dokumentiert wurde.
Die KI ist fachlich korrekt. Aber organisatorisch wirkungslos.
Der Engpass ist nicht Technologie, sondern fehlende explizite Regeln.
2. Vorbereitung mit kontrollierter Ausführung
Beispiel: Großhandel / Distribution
Ein technischer Großhändler nutzt KI für Nachbestellungen und Bestandsoptimierung. Das System darf Bestellungen eigenständig auslösen, solange:
● definierte Artikelgruppen betroffen sind
● Mengen unter klaren Schwellenwerten bleiben
● Lieferanten vertraglich freigegeben sind
Alles darüber hinaus wird vorbereitet, aber nicht ausgeführt.
Hier funktioniert Delegation, weil:
● Regeln klar definiert sind
● Verantwortlichkeiten nachvollziehbar bleiben
● Abweichungen bewusst eskaliert werden
Viele Email-to-Order- und Replenishment-Flows operieren genau auf dieser Ebene. Das ist aktuell der reifste und stabilste Zustand im B2B.
3. Delegierte Handlung mit Auditierbarkeit
Beispiel: Pharma-nahe Beschaffung
In regulierten Umfeldern wie der Pharmaindustrie werden KI-Systeme eingesetzt, um Lieferantenauswahl und Bestellfreigaben vorzubereiten. In klar abgegrenzten Szenarien darf das System Bestellungen eigenständig auslösen, sofern:
● Lieferanten qualifiziert sind
● regulatorische Rahmenbedingungen erfüllt sind
● jede Entscheidung vollständig dokumentiert ist
Der Schlüssel hier ist nicht Autonomie, sondern Auditierbarkeit. Nicht die Frage „Wer hat entschieden?“, sondern „Wer hat definiert, dass entschieden werden darf?“.
Solche Setups sind selten, aber sie zeigen, dass Delegation möglich ist, wenn Governance vor Automatisierung gedacht wird.
Warum Governance kein Bremsklotz ist
Ein häufiger Fehler in KI-Initiativen ist die Annahme, Governance beginne nach dem Piloten.
In der Praxis ist es umgekehrt.
Ohne Governance entsteht keine Delegation, sondern Unsicherheit. Ohne klare Zuständigkeiten entsteht keine Geschwindigkeit, sondern Stillstand.
Governance beantwortet drei Fragen, die jede delegierbare Entscheidung braucht:
● Wer definiert die Regeln?
● Wer trägt Verantwortung bei Abweichungen?
● Wie wird gelernt, wenn etwas schiefgeht?
Erst dann darf ein System handeln, ohne Vertrauen zu zerstören.
Die Rolle offener Standards
Standards wie UCP lösen dieses Problem nicht. Sie setzen voraus, dass Organisationen selbst wissen:
● welche Entscheidungen delegierbar sind
● unter welchen Bedingungen gehandelt werden darf
● wo klare Grenzen gezogen sind
Ohne diese Klarheit bleibt jeder Standard abstrakt. Mit dieser Klarheit werden Standards zu echten Beschleunigern.
Die unbequeme Wahrheit
Viele Unternehmen scheitern nicht an KI. Sie scheitern daran, dass sie ihre eigenen Entscheidungslogiken nie explizit formuliert haben.
KI zwingt Organisationen, sich selbst zu erklären. Das ist unbequem, aber notwendig.
Drei Denkanstöße für Entscheider
- Welche Entscheidungen werden heute regelmäßig getroffen, ohne jedes Mal neu diskutiert zu werden?
- Welche davon wären delegierbar, wenn sie sauber beschrieben wären?
- Wer trägt heute Verantwortung für die Regeln, nicht für die Ausführung?
Wer diese Fragen beantworten kann, ist näher an agentischem Handeln, als viele Tool-Demos vermuten lassen.
Schlussgedanke
KI verändert den Handel nicht, indem sie Menschen ersetzt. Sie verändert ihn, indem sie Entscheidungen sichtbar, vergleichbar und delegierbar macht.
Die entscheidende Frage ist nicht, ob KI handeln wird. Sondern:
Wer ist bereit, Verantwortung für delegierte Entscheidungen zu übernehmen?
