Künstliche Intelligenz und die Gefahr falscher Informationen
Künstliche Intelligenz und die Gefahr falscher Informationen
Eine aktuelle Untersuchung der Europäischen Rundfunkunion (EBU) hat deutliche Schwächen bei bekannten KI-Chatbots wie ChatGPT, Claude, Gemini und anderen aufgedeckt. Die Studie zeigt, dass diese Systeme häufig ungenaue oder sogar erfundene Informationen verbreiten. In manchen Fällen lag der Anteil falscher Antworten bei bis zu 40 Prozent. Diese Ergebnisse werfen ernste Fragen über den verantwortungsvollen Umgang mit künstlicher Intelligenz auf, insbesondere wenn sie als Informationsquelle genutzt wird.
Immer mehr Menschen verwenden Chatbots, um Nachrichten zu lesen, aktuelle Ereignisse zu verstehen oder Hintergrundinformationen zu erhalten. Allein ChatGPT wird wöchentlich von hunderten Millionen Nutzern weltweit eingesetzt. Für viele ersetzt der digitale Assistent bereits Suchmaschinen wie Google. Doch dieses Vertrauen kann gefährlich sein, denn die Künstliche Intelligenz arbeitet nicht fehlerfrei und erzeugt regelmäßig sogenannte „Halluzinationen“ – also Antworten, die zwar glaubwürdig klingen, aber inhaltlich falsch sind.
Die Ursachen dafür sind vielfältig. Ein Grund liegt in den Trainingsdaten, auf denen die Systeme basieren. Diese Daten können veraltet sein und spiegeln oft nicht den aktuellen Stand von Forschung oder Politik wider. Ein weiterer Grund ist, dass KI-Modelle keine echten Fakten verstehen. Sie analysieren sprachliche Muster und errechnen Wahrscheinlichkeiten, welche Wörter am besten zusammenpassen. Ob die daraus entstehende Aussage wahr oder falsch ist, kann das System nicht überprüfen. Dadurch entstehen erfundene Inhalte, manchmal sogar mit frei erfundenen Quellenangaben.
Besonders gefährlich wird dies, wenn KI-Chatbots als seriöse Informationsquelle genutzt werden. Viele Nutzer gehen davon aus, dass die Antworten objektiv und korrekt sind. Wenn jedoch falsche Informationen von einer scheinbar vertrauenswürdigen Quelle stammen, können sie sich schnell verbreiten – etwa über soziale Medien. Dies kann Folgen für die Gesellschaft haben: Bürger treffen politische Entscheidungen auf Basis von Falschmeldungen, Schüler übernehmen falsche Angaben in Arbeiten, und das Vertrauen in journalistische Medien kann sinken.
Ein weiteres Problem besteht darin, dass Chatbots manchmal fälschlich behaupten, ihre Informationen stammten von bekannten Medien wie der ARD, dem ZDF oder der Tagesschau. Dadurch kann der Eindruck entstehen, seriöse Redaktionen hätten etwas berichtet, was gar nicht stimmt. Solche Fälle untergraben die Glaubwürdigkeit professioneller Nachrichtenquellen und erschweren die Unterscheidung zwischen echten und erfundenen Informationen.
Die EBU-Studie testete verschiedene KI-Systeme mit zahlreichen Fragen zu Geschichte, Wissenschaft und aktuellen Ereignissen. Kein System lieferte ausschließlich richtige Antworten. Die Fehlerquote schwankte je nach Thema zwischen 15 und 40 Prozent. Das zeigt, dass auch die fortschrittlichsten Modelle der großen Technologieunternehmen grundlegende Schwächen im Umgang mit Fakten haben.
Trotz intensiver Weiterentwicklung bleibt das Problem der Halluzinationen bestehen. Unternehmen investieren Milliarden in die Verbesserung der Systeme, versuchen aktuellere Daten einzubinden und die Qualität der Quellenangaben zu erhöhen. Dennoch bleibt die Tatsache bestehen, dass künstliche Intelligenz keine bewusste Kontrolle über Wahrheit oder Lüge besitzt.
Die EBU empfiehlt daher einen vorsichtigen Umgang mit Chatbots. Nutzer sollten wichtige Informationen stets durch unabhängige Quellen überprüfen und sich bei Nachrichten oder wissenschaftlichen Themen auf etablierte Medien verlassen. Schulen und Universitäten werden aufgefordert, Medienkompetenz stärker zu fördern, um junge Menschen für den kritischen Umgang mit KI-Inhalten zu sensibilisieren.
Menschliche Kontrolle bleibt notwendig, um Wahrheit von Täuschung zu unterscheiden. Die digitale Revolution verändert viele Bereiche des Lebens – die Bedeutung von überprüften Fakten bleibt jedoch unverändert groß.
Wissenschaftliche Studie
- News Integrity in AI Assistants (PDF) | Europäische Rundfunkunion (EBU), Oktober 2025.
Informationen im Internet
- Künstliche Intelligenz: KI erfindet jede dritte Antwort | Tagesschau.de, 27. Oktober 2025.