Abstract background
Alle Artikel
KI-HalluzinationenChatGPTDatenanalyseDeterministisch

96% falsch: Warum ChatGPT Ihre Geschäftsdaten erfindet

Eine aktuelle Studie zeigt: ChatGPT liefert bei 96% der DACH-Mittelstandsunternehmen falsche Geschäftsführer-Namen. Wir erklären, warum generative KI bei Unternehmensdaten versagt — und wie deterministische Datenanalyse das Problem löst.

96% falsche Antworten — und Unternehmen merken es nicht

Stellen Sie sich vor: Sie fragen ChatGPT nach dem Geschäftsführer eines Zulieferers. Die Antwort klingt plausibel, ist flüssig formuliert, enthält sogar ein Gründungsjahr. Nur: Alles ist erfunden.

Genau das hat die maxonline-Studie 2026 systematisch getestet. 150 DACH-Mittelstandsunternehmen wurden abgefragt — mit ernüchternden Ergebnissen:

  • 96% falsche Geschäftsführer-Namen — ChatGPT erfindet Personen, die nie existiert haben
  • 78% falsches Gründungsjahr — mit Abweichungen von bis zu 160 Jahren
  • 68% falsche Mitarbeiterzahl — teilweise um den Faktor 10 daneben
  • Nur 3% korrekte Unternehmensinformationen insgesamt

Das sind keine Ausreißer. Das ist die Regel.

Was genau sind KI-Halluzinationen?

Der Begriff klingt harmlos. Ist er nicht. Eine KI-Halluzination liegt vor, wenn ein Sprachmodell wie ChatGPT Informationen generiert, die faktisch falsch sind — aber überzeugend klingen. Das Modell "weiß" nicht, was es nicht weiß. Es füllt Lücken mit statistisch plausiblem Text.

Bei allgemeinen Wissensfragen ist das oft unkritisch. Bei Geschäftsdaten wird es gefährlich:

  • Ein Controller prüft Wettbewerbsdaten und trifft Entscheidungen auf Basis erfundener Zahlen
  • Ein Vertriebsmitarbeiter recherchiert einen potenziellen Kunden — und spricht den falschen Geschäftsführer an
  • Ein Einkäufer bewertet Lieferanten anhand halluzinierter Firmendaten

Das Problem: Die Antworten klingen so selbstsicher, dass die meisten Menschen sie nicht hinterfragen.

Das Ausmaß: Schatten-KI im deutschen Mittelstand

Laut Bitkom nutzen 2026 bereits 41% der deutschen Unternehmen KI-Tools. Das klingt nach kontrolliertem Einsatz — ist es aber oft nicht. Microsoft warnt: 29% der Mitarbeiter verwenden unautorisierte KI-Agenten am Arbeitsplatz. Ohne Wissen der IT-Abteilung. Ohne Datenschutz-Prüfung. Ohne Qualitätskontrolle der Ergebnisse.

Diese Schatten-KI ist nicht nur ein Datenschutzproblem. Sie ist ein Qualitätsproblem. Wenn Mitarbeiter ChatGPT für Geschäftsfragen nutzen und den Antworten vertrauen, fließen halluzinierte "Fakten" in Entscheidungen, Reports und Kundenangebote ein.

Die Kosten sind real: Laut IBM verursachen Schatten-KI-bedingte Datenschutzverletzungen durchschnittlich 4,3 Mio. EUR Schaden pro Vorfall. Und das berücksichtigt nur den Datenschutz — nicht die Folgekosten von Fehlentscheidungen auf Basis falscher Daten.

Warum ChatGPT bei Geschäftsdaten versagt

Das ist kein Bug. Es ist ein fundamentales Designprinzip. ChatGPT ist ein generatives Sprachmodell. Es wurde trainiert, um überzeugend klingende Texte zu erzeugen — nicht, um korrekte Daten zu liefern. Der Unterschied ist entscheidend:

Generative KI (ChatGPT, Gemini, Claude):

  • Erzeugt Text basierend auf Wahrscheinlichkeiten
  • Hat keinen Zugriff auf Ihre aktuellen Geschäftsdaten
  • Kann nicht zwischen Fakt und Fiktion unterscheiden
  • Antwortet immer — auch wenn es die Antwort nicht kennt

Deterministische KI (z.B. oneAgent):

  • Berechnet Ergebnisse auf Basis realer Datenquellen
  • Greift direkt auf Ihre ERP-, CRM- und DWH-Daten zu
  • Liefert nachvollziehbare, reproduzierbare Ergebnisse
  • Sagt "keine Daten vorhanden", wenn keine Daten vorhanden sind

Das ist wie der Unterschied zwischen jemandem, der Ihre Frage googelt und zusammenfasst, und jemandem, der Ihre Buchhaltung öffnet und nachrechnet.

Der direkte Vergleich: ChatGPT vs. oneAgent

KriteriumChatGPToneAgent
DatengrundlageTrainingskorpus (veraltet, unvollständig)Ihre echten Geschäftsdaten (live)
Antwort-MethodeTextgenerierung (probabilistisch)Berechnung (deterministisch)
HalluzinationsrisikoHoch (96% bei Firmendaten)Keines — berechnet oder meldet fehlende Daten
DatenquellenManueller Copy-Paste550+ Connectoren (ERP, CRM, DWH, Shopify...)
NachvollziehbarkeitKeine QuellenangabeJede Antwort mit Datenquelle und Berechnungsweg
DatenschutzDaten auf US-ServernDSGVO-konform, hosted in Frankfurt
AktualitätTrainingsdaten-StichtagEchtzeit-Zugriff auf Ihre Systeme
Kostenlose TestphaseNein14 Tage

Was bedeutet "deterministisch" konkret?

Deterministisch heißt: Gleiche Frage + gleiche Daten = immer das gleiche Ergebnis. Keine Zufallskomponente. Keine kreative Interpretation.

Wenn Sie oneAgent fragen: "Wie hoch war der Umsatz in Q3 2025?" — dann liest oneAgent die Umsatzdaten aus Ihrem ERP-System, aggregiert sie nach den definierten Geschäftsregeln und liefert das Ergebnis. Punkt. Kein Raten, kein Halluzinieren, kein "ich denke, es könnte ungefähr...".

Dazu kommt ein automatischer Prüf-Layer, der jede Antwort gegen Ihre echten Daten und Geschäftsregeln validiert — bevor Sie sie sehen. Wenn die Daten nicht ausreichen oder widersprüchlich sind, sagt das System das klar an.

Die Konsequenz für den deutschen Mittelstand

Mit 41% KI-Nutzung und 29% Schatten-KI in deutschen Unternehmen sind halluzinierte Geschäftsdaten kein Randproblem. Es betrifft potenziell jedes Unternehmen, in dem Mitarbeiter ChatGPT für geschäftliche Recherche nutzen.

Die Frage ist nicht: "Nutzen unsere Mitarbeiter ChatGPT?" Sondern: "Vertrauen sie den Antworten?"

Wenn die Antwort Ja ist, fließen mit hoher Wahrscheinlichkeit fehlerhafte Informationen in Ihre Geschäftsprozesse ein. Und anders als bei einem Tippfehler in einer Excel-Tabelle sind KI-Halluzinationen systematisch und schwer zu erkennen.

Was sollten Sie tun?

Kurzfristig: Bewusstsein schaffen

Informieren Sie Ihre Teams: ChatGPT ist hervorragend für Texterstellung, Brainstorming und Zusammenfassungen. Für Geschäftsdaten — Umsätze, Firmendaten, Marktdaten — ist es das falsche Werkzeug. Nicht weil es schlecht ist, sondern weil es dafür nicht gebaut wurde. Warum Firmendaten nicht in ChatGPT gehören

Mittelfristig: Datensilos auflösen

Der Grund, warum Mitarbeiter ChatGPT für Geschäftsfragen nutzen, ist oft: Sie kommen nicht an die Daten. Das ERP ist umständlich, der BI-Report veraltet, und für eine SQL-Abfrage braucht man die IT-Abteilung. Wenn Sie Daten zugänglich machen, verschwindet der Grund für Schatten-KI. Mehr zu Datensilos

Langfristig: Deterministische KI einsetzen

Geben Sie Ihren Teams ein Werkzeug, das ihre echten Fragen beantwortet — auf Basis echter Daten, in natürlicher Sprache, ohne SQL-Kenntnisse. So bekommen sie die Geschwindigkeit von ChatGPT mit der Zuverlässigkeit eines BI-Systems.

Fazit: Vertrauen Sie keiner KI, die Ihre Daten nicht kennt

Die maxonline-Studie zeigt klar: Bei Geschäftsdaten liegt ChatGPT in 96% der Fälle daneben. Das ist kein Versagen — es ist das erwartbare Ergebnis, wenn man ein Textwerkzeug für Datenanalyse einsetzt.

Die Alternative ist nicht "keine KI". Die Alternative ist die richtige KI für die richtige Aufgabe. Deterministische Datenanalyse statt generativer Textproduktion. Echte Berechnung statt plausiblem Raten.

oneAgent verbindet sich mit Ihren 550+ Datenquellen, berechnet Ergebnisse deterministisch, validiert jede Antwort automatisch — und Ihre Daten verlassen nie Ihr Netzwerk. DSGVO-konform, gehostet in Frankfurt.

Testen Sie den Unterschied: 14 Tage kostenlos, keine Kreditkarte nötig.

oneAgent kostenlos testen →

Bereit, Ihre Daten sicher abzufragen?

oneAgent bringt die KI zu Ihren Daten — nicht umgekehrt. DSGVO-konform, gehostet in Frankfurt, 14 Tage kostenlos.

96% falsch: Warum ChatGPT Ihre Geschäftsdaten erfindet | oneAgent