Schlechte Datenqualität ist kein neues Problem. Aber durch den Einsatz von KI-Agenten bekommt es eine neue Dimension. Laut Gartner verlieren Unternehmen durchschnittlich 12,9 Millionen US-Dollar pro Jahr durch mangelhafte Datenqualität – durch Fehlentscheidungen, ineffiziente Prozesse und verpasste Chancen. Und laut einer Analyse des Harvard Business Review erfüllen nur 3 Prozent aller Unternehmensdaten grundlegende Qualitätsstandards.
Diese Zahlen betreffen zunächst das operative Geschäft. Doch wenn ein KI-Agent auf genau diese Daten zugreift, potenzieren sich die Auswirkungen. Ein Mitarbeiter kann eine widersprüchliche Information im Leistungskatalog erkennen und korrigieren. Ein KI-Agent kann das nicht – er gibt die widersprüchliche Information als korrekte Antwort weiter.
Was Datenqualität im Kontext von KI-Agenten bedeutet
Datenqualität wird oft als technisches Thema behandelt – als Aufgabe für die IT-Abteilung. Im Kontext von KI-Agenten verschiebt sich die Perspektive. Hier geht es nicht primär um Datenbankformate oder Zeichensätze, sondern um inhaltliche Konsistenz, Vollständigkeit und Eindeutigkeit.
Ein Beispiel: Ein Unternehmen bietet eine Beratungsleistung an, die intern unter drei verschiedenen Bezeichnungen geführt wird – in der Angebotsvorlage, auf der Website und im CRM-System. Für Mitarbeiter ist das handhabbar, weil sie den Kontext kennen. Für einen KI-Agenten ist es ein Problem. Er kann nicht entscheiden, welche Bezeichnung die richtige ist. Im schlimmsten Fall verwendet er alle drei in verschiedenen Antworten – und erzeugt damit genau die Inkonsistenz, die er eigentlich beseitigen sollte.
Datenqualität für KI-Agenten bedeutet deshalb: Jede Information existiert genau einmal, ist eindeutig formuliert und steht in einem klaren Zusammenhang zu verwandten Informationen. Es ist das Prinzip der Single Source of Truth, angewandt auf jedes einzelne Datenelement.
Die Lücke zwischen Erkenntnis und Umsetzung
Die KI-Studie 2025 unter mittelständischen Unternehmen zeigt das Ausmaß der Herausforderung: 76 Prozent der befragten KMU kämpfen mit unzureichender Datenqualität und Datensilos, und 83 Prozent verfügen über keine umfassende Datenstrategie. Gleichzeitig erkennen 86 Prozent die strategische Relevanz von KI – aber nur 23 Prozent haben konkrete KI-Projekte erfolgreich umgesetzt.
Diese Diskrepanz ist kein Zufall. Sie zeigt ein Muster, das sich durch die gesamte KI-Landschaft zieht: Die Technologie ist bereit. Die Daten sind es nicht. Eine internationale Studie von Avanade unter 4.100 IT-Entscheidern bestätigt dieses Bild: 87 Prozent der deutschen Befragten geben an, dass schlechte Datenqualität und -verwaltung den Fortschritt ihrer KI-Initiativen behindert.
Garbage In, Garbage Out – aber schneller
Das Prinzip „Garbage In, Garbage Out“ ist so alt wie die Informatik. Bei KI-Agenten gilt es in verschärfter Form. Denn ein Agent arbeitet nicht nur mit den Daten, die er bekommt – er multipliziert deren Wirkung. Eine fehlerhafte Preisangabe in einer Tabelle betrifft vielleicht ein einzelnes Angebot. Dieselbe fehlerhafte Angabe im Datensatz eines KI-Agenten betrifft potenziell jedes Angebot, das der Agent erstellt.
Hinzu kommt der Vertrauenseffekt. KI-Agenten formulieren ihre Antworten mit einer Sicherheit, die menschliche Mitarbeiter selten an den Tag legen. Ein Kollege sagt „Ich glaube, das kostet ungefähr …“ – ein KI-Agent sagt „Der Preis beträgt …“. Die sprachliche Überzeugungskraft macht fehlerhafte Daten gefährlicher, weil sie seltener hinterfragt werden.
Für Unternehmen, die KI-Agenten einsetzen wollen, bedeutet das: Die Investition in Datenqualität ist keine optionale Vorarbeit. Sie ist die Kernaufgabe. Ohne bereinigte, konsistente und vollständige Daten wird jeder KI-Agent zum Risikofaktor statt zum Produktivitätstreiber.
Datenqualität als fortlaufender Prozess
Ein häufiger Irrtum: Datenqualität lässt sich einmal herstellen und ist dann erledigt. In der Praxis veralten Daten, ändern sich Zuständigkeiten, kommen neue Leistungen hinzu oder fallen weg. Datenqualität ist kein Projekt, sondern ein Prozess – und dieser Prozess muss so gestaltet sein, dass er im Arbeitsalltag funktioniert, nicht nur in der Theorie.
Das ist einer der Gründe, warum der Digitale Zwilling als lebendes System konzipiert ist. Er bildet nicht einen Zustand ab, sondern wird kontinuierlich gepflegt. Wenn eine Leistung sich ändert, ändert sich der Datensatz. Wenn ein Prozess angepasst wird, wird die Prozessbeschreibung aktualisiert. Der KI-Agent arbeitet immer mit dem aktuellen Stand – weil die Datenstruktur darauf ausgelegt ist, aktuell gehalten zu werden.
Die Gartner-Analysten weisen darauf hin, dass 59 Prozent der Unternehmen ihre Datenqualität nicht einmal messen. Wer nicht misst, kann nicht verbessern. Und wer nicht verbessert, wird bei jedem KI-Einsatz mit denselben Problemen konfrontiert – nur in größerem Maßstab.
