Studie: KI-Chatbots lügen bei 40 Prozent der Antworten

Studie: KI-Chatbots lügen bei 40 Prozent der Antworten

KI-Apps von ChatGPT, Bing, Gemini, OpenAI, Chatbot und Copilot.

Stand: 27.10.2025 14:46 Uhr

Eine neue Studie der Europäischen Rundfunkunion zeigt alarmierende Fehlerquoten bei populären KI-Chatbots. Die Systeme erfinden regelmäßig Informationen und geben sogar falsche Quellen an.

Jörg Schieb

Sie fragen ChatGPT nach dem Wahlausgang, lassen sich von Claude die Nachrichten zusammenfassen oder bitten Perplexity um Hintergründe zum Nahostkonflikt: Millionen Deutsche vertrauen täglich auf KI-Chatbots als Informationsquellen. 800 Millionen Menschen weltweit nutzen allein ChatGPT jede Woche. Die digitalen Assistenten ersetzen für viele bereits die klassische Google-Suche.

Doch dieses Vertrauen ist riskant, wie eine aktuelle Studie der Europäischen Rundfunkunion (EBU) zeigt. Der Zusammenschluss von 68 öffentlich-rechtlichen Sendern aus 56 Ländern hat systematisch die Zuverlässigkeit der populärsten KI-Systeme getestet.

Das erschreckende Ergebnis: ChatGPT, Claude, Gemini und andere Chatbots erfinden bis zu 40 Prozent ihrer Antworten und stellen sie als Fakten dar.

Halluzinationen: Die KI lügt überzeugend

Der populäre Chatbot ChatGPT behauptet steif und fest, dass Papst Franziskus noch lebt. Microsoft Copilot, unter anderem in den Büroprogrammen Word und Excel präsent, weiß nicht, dass Schweden in der NATO ist. Und Google Gemini hält die Wiederwahl von Donald Trump für “möglich”, obwohl sie bereits längst stattgefunden hat.

“Die Systeme klingen überzeugend, auch wenn sie immer wieder vollkommen falsche Dinge behaupten”, warnt Wirtschaftswissenschaftler Peter Posch von der Technischen Universität Dortmund. “Das macht sie für ungeübte Nutzer besonders gefährlich, weil die Fehler oft nicht sofort erkennbar sind.”

Entstehen können solche Fehler auf zwei Wegen: Zum einen basieren KI-Antworten mitunter auf veralteten Trainingsdaten. Chatbots wie ChatGPT wurden mit Texten trainiert, die mehrere Monate oder Jahre alt sind – ähnlich wie bei einer Suchmaschine, die seit drei Jahren nicht mehr aktualisiert wurde. Was damals stimmte, kann heute längst überholt sein.

Zum anderen gibt es echte Halluzinationen: Die KI reimt sich fehlende Informationen zusammen, indem sie statistisch plausible Wortketten generiert – auch wenn diese faktisch falsch sind. Sie erfindet dann mitunter sogar Quellen, die nicht existieren, oder verknüpft Fakten, die nicht zusammengehören.

Moderne Chatbots können zwar mittlerweile aktuell im Netz recherchieren, wenn man das in der Eingabe (dem sogenannten “Prompt”) explizit verlangt. Dann liefern sie oft zuverlässigere Ergebnisse. Doch viele Nutzer wissen das nicht – und die KI sucht nicht automatisch nach aktuellen Informationen, wenn man sie nicht dazu auffordert. Die Studie wollte genau das untersuchen.

Eine Gefahr für die Demokratie

Aber was bedeutet das für eine Gesellschaft, in der immer mehr Menschen ihre Informationen von Chatbots beziehen? Die Folgen sind bereits spürbar: Falschinformationen verbreiten sich rasant in sozialen Medien, weil Nutzer KI-generierte “Fakten” ungeprüft teilen. Schüler und Studenten übernehmen erfundene Informationen in ihre Arbeiten. Bürger treffen womöglich Wahlentscheidungen auf Basis falscher Behauptungen.

Besonders tückisch: Viele Nutzer wissen gar nicht, dass Chatbots halluzinieren können. Sie gehen davon aus, dass die Technologie objektiv und faktentreu arbeitet – ein gefährlicher Irrglaube. Die KI-Systeme warnen zwar in ihren Nutzungsbedingungen vor möglichen Fehlern, doch wer liest die schon?

Der Schaden für seriösen Journalismus

Ein weiteres Problem betrifft die Glaubwürdigkeit etablierter Medien. Chatbots behaupten regelmäßig, ihre erfundenen Informationen stammten von der ARD, dem ZDF oder der tagesschau, obwohl diese Redaktionen nie darüber berichtet haben – oder völlig anders. Nutzer verlieren das Vertrauen in seriöse Quellen, wenn die KI deren Namen für Falschinformationen missbraucht.

Die EBU-Studie testete die Chatbots mit hunderten Faktenfragen: zu historischen Ereignissen, wissenschaftlichen Erkenntnissen, aktuellen Nachrichten. Je nach Themenbereich lag die Fehlerquote zwischen 15 und 40 Prozent. Keine der getesteten KIs schnitt fehlerfrei ab.

Warum die KI sich irrt

Das Problem liegt im System: Chatbots verstehen nicht wirklich, was sie sagen. Sie berechnen auf Basis riesiger Textmengen, welche Wörter wahrscheinlich zusammenpassen. Ob die resultierende Aussage wahr ist, können sie nicht prüfen. Sie haben kein Faktenwissen, sondern nur statistische Muster.

Die Tech-Konzerne wissen um diese Unzulänglichkeiten und arbeiten an Lösungen. Sie binden Datenbanken ein, verbessern die Quellenangaben, trainieren die Systeme nach. Milliarden fließen in die Entwicklung. Trotzdem bleiben die Halluzinationen ein ungelöstes Grundproblem der Technologie.

Was Nutzer jetzt tun können

Die EBU empfiehlt klare Regeln im Umgang mit Chatbots: Niemals blind vertrauen. Wichtige Informationen immer gegenchecken. Bei Nachrichten und Fakten auf etablierte Medien setzen, nicht auf KI. Besonders bei politischen Themen, Gesundheitsfragen oder finanziellen Entscheidungen ist Vorsicht geboten.

Schulen und Universitäten müssen Medienkompetenz vermitteln: Wie erkenne ich KI-generierte Falschinformationen? Welche Quellen sind verlässlich? Die Bundesregierung plant Aufklärungskampagnen, doch die kommen spät. Millionen nutzen die Technologie längst täglich.

Bis die Technik verlässlicher wird, gilt: Chatbots mögen für kreative Aufgaben oder als Schreibhilfe praktisch sein. Als Faktenchecker oder Nachrichtenquelle taugen sie nicht, zumindest sollte sich niemand zu 100 Prozent darauf verlassen.

Wer sich informieren will, kommt an seriösen Medien nicht vorbei, in denen menschliche Redakteure arbeiten, die Quellen prüfen und Behauptungen und Belege einordnen. Die digitale Revolution mag vieles verändern – die Notwendigkeit sorgfältiger Recherche bleibt.

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *