KI-Agenten skalieren, was vorhanden ist
Was KI-Agenten über Ihre Datenstrategie verraten
Stellen Sie sich einen KI-Agenten vor, der Angebote automatisiert erstellt: Er erkennt eine Kundenanfrage, prüft das CRM auf bestehende Beziehungen, ruft Produktdaten aus dem PIM ab, kalkuliert einen Preis und erzeugt ein druckfertiges Dokument. Auf dem Papier ist das ein Produktivitätsgewinn. In der Praxis hängt alles davon ab, was dieser Agent vorfindet.
Denn KI-Agenten tun nicht, was wir uns von ihnen erhoffen. Sie tun, was die Daten ihnen erlauben.
Der Skaleneffekt als Offenbarungseid
Nehmen wir den beschriebenen Fall: Der Agent erkennt nicht, dass der Anfragende ein bestehender Kunde ist. Er legt eine Dublette im CRM an. Auf Basis dieser Dublette fehlt ihm der historische Kontext, wählt er möglicherweise den falschen Service und kalkuliert am Preisrahmen vorbei. Das Angebot enthält sachliche Fehler.
Bei zwei Angeboten pro Tag ist das beherrschbar. Ein aufmerksamer Mitarbeiter fängt es ab, korrigiert, lernt. Der Schaden bleibt begrenzt.
Bei hundert Angeboten täglich verändert sich die Ökonomie grundlegend. Der Human-in-the-Loop, der ursprünglich als Qualitätssicherung gedacht war, wird zur Engpassressource. Die Kapazität eines Menschen zur konzentrierten Fehlerprüfung ist endlich und unelastisch. Gleichzeitig wächst der Fehlerstrom proportional zur Systemaktivität. Das Ergebnis: steigende Prüfkosten bei sinkender Prüfqualität. Wer jetzt nachhält, wie viele Vollzeitkräfte benötigt werden, um tausend fehlerhafte Angebote täglich abzufangen, erhält eine Zahl, die jeden ursprünglichen Effizienzgewinn überkompensiert.
Automatisierung ist kein Qualitätsfilter
An dieser Stelle lohnt ein nüchterner Blick auf das, was sich verändert hat. Automatisierte Angebotslösungen existieren seit Jahren. Sie kämpften mit denselben Datenqualitätsproblemen wie heute. Was sich durch KI-Agenten verändert, ist nicht die Art des Problems, sondern seine Ausprägungsgeschwindigkeit.
Ein Agent operiert ohne Ermüdung, ohne Zögerlichkeit und ohne den intuitiven Zweifel, der einen erfahrenen Mitarbeiter gelegentlich pausieren lässt. Er skaliert konsequent, präzise und schnell, was er vorfindet. Wer schlechte Daten hat, bekommt damit schlechte Ergebnisse in industrieller Geschwindigkeit.
Es gibt Ansätze, Agenten gezielt zur Erkennung und Behebung von Datenqualitätsproblemen einzusetzen. Das ist konzeptionell reizvoll, löst aber keine grundlegende Spannung: Auch dieser Metaagent braucht menschliche Überwachung. KI irrt. Die Frage ist nicht, ob sie Fehler macht, sondern wann und mit welchen Konsequenzen. Wer glaubt, eine Qualitätsschwäche durch eine zweite KI-Schicht zu heilen, verschiebt das Problem nach oben, ohne das Fundament zu stabilisieren.
Was dateninspirierte Unternehmen vor der Agenteneinführung tun
Organisationen, die KI-Agenten mit messbarem Effekt betreiben, behandeln Datenqualität nicht als technisches Vorprojekt, sondern als strategische Investitionsentscheidung. Sie beantworten drei Fragen, bevor ein Agent produktiv geht:
Wie hoch ist unsere aktuelle Datenqualität in den betroffenen Quellsystemen? Das ist keine rhetorische Frage. Sie erfordert Messbarkeit: Dublettquoten im CRM, Vollständigkeitsgrade im PIM, semantische Konsistenz zwischen Systemen. Ohne Baseline keine Qualitätsstrategie.
Welche Fehlertoleranz hat der Agentenprozess? Nicht jede Datenqualitätsschwäche hat denselben Effekt. Ein falscher Zusatzname im Kundenprofil ist unkritisch. Eine falsche Kundenklassifikation kann einen Preisrahmen kippen. Dateninspirierte Organisationen priorisieren Qualitätsmaßnahmen nach ihrem Hebel im Prozess, nicht nach generischen Reifegradforderungen.
Wo ist Human-in-the-Loop Verstärkung, und wo ist er Kompensation? Das ist die entscheidende Unterscheidung. Menschliche Prüfung als letzte Absicherung bei einem robusten Prozess ist sinnvoll. Menschliche Prüfung als Hauptmechanismus gegen systematische Datenfehler ist operativ nicht skalierbar und ökonomisch nicht vertretbar.
Der eigentliche Hebel
KI-Agenten sind Multiplikatoren. Ihr Wertbeitrag steht in direktem Verhältnis zur Qualität des Fundaments, auf dem sie operieren. Organisationen, die dieses Fundament kennen, können präzise entscheiden, welche Prozesse zur Automatisierung bereit sind, welche Qualitätslücken vor der Einführung geschlossen werden müssen und welche Prüfmechanismen wirklich nötig sind.
Das ist keine defensive Haltung. Es ist die Voraussetzung dafür, dass Automatisierungsgewinne real sind und nicht durch Fehlerbearbeitungskosten neutralisiert werden.
Der Vorsprung liegt nicht darin, Agenten früh einzuführen. Er entsteht dort, wo Agenten auf belastbare Daten treffen.
Simulation
Die nachfolgende Simulation macht greifbar, was in der strategischen Diskussion oft abstrakt bleibt: Datenqualitätsprobleme in einzelnen Quellsystemen multiplizieren sich im Agentenprozess und werden mit steigendem Volumen zur messbaren betrieblichen Belastung. Passen Sie die Fehlerquoten für CRM, PIM und Preissystem an Ihre eigene Systemrealität an und beobachten Sie, wie sich die Fehlerwahrscheinlichkeit auf Ihre tägliche Angebotsmenge auswirkt.
Simulation · Basis: 10.000 Datensätze
DQ-Fehlerfortpflanzung im KI-Agenten-Prozess
Datensätze gesamt
10.000
100,0 %
Wahrscheinlich fehlerfrei
6.120
61,2 %
Wahrscheinlich fehlerhaft
3.880
38,8 %
Wie viele Angebote werden fehlerhaft sein?
Angebote gesamt
100
pro Tag
Davon fehlerfrei
61
61,2 %
Davon fehlerhaft
39
38,8 %
P(fehlerfrei) = (1−e₁) × (1−e₂) × (1−e₃) · Unabhängige Fehlerwahrscheinlichkeit je Quellsystem
© THE DATA ECONOMIST | Marco Geuer
In meinen Workshops erarbeite ich mit den Teilnehmenden die Methode der Logikbäume. Diese Ursache-Wirkungs-Ketten machen sichtbar, wie operative Entscheidungen auf strategische Unternehmensziele durchschlagen und wo Durchbruchslösungen ansetzen müssen. Die Simulation ist eine kompakte digitale Entsprechung dieses Denkwerkzeugs: Sie verbindet eine konkrete Datenlage mit ihren skalierenden Konsequenzen und schafft damit die Grundlage für eine informierte strategische Entscheidung.
Weitere interessante Artikel:
- Advisory | Impulse Talks | Trainings
- Vergessen Sie den schnellen ROI: Die wirklichen KI-Gewinne stehen in keiner Bilanz
- Warum Datenqualität allein Ihre KI-Strategie zum Scheitern bringt
- Die neue Wertschöpfungslogik im Datenzeitalter: Wie Data Governance den Weg von Aufwand zu Wirkung radikal verändert
- Warum dauerhafte Datenbereinigung keine Lösung ist!
Datenlogistik, Data Strategy, AI Strategy, Daten & KI Strategie, Datenqualität und KI, KI Strategie, Datendurchgängigkeit, Datendurchsatz
- Geändert am .
- Aufrufe: 17
