Eigentlich verblüffend, wie oft sich sogenannte intelligente Assistenten irren, wenn es um aktuelle Nachrichten geht. Laut dieser neuen internationalen Studie liefern ChatGPT, Copilot, Gemini und Perplexity in 45 Prozent aller untersuchten Fälle falsche oder zumindest irreführende Informationen – egal, ob auf Spanisch oder Schwedisch, in Europa oder Übersee. Öffentlich-rechtliche Medien, darunter ARD und ZDF, sehen ihre Rolle zum Glück bestätigt: Journalistische Sorgfalt bleibt gefragt, KI kann dem Anspruch allein keineswegs gerecht werden. ZDF-Intendant Dr. Norbert Himmler betont, dass verlässliche Informationen weiterhin fest in der menschlichen Hand liegen – auch wenn die Tools selbst immer ausgefeilter erscheinen. Florian Hager, ARD-Vorsitzender, weist auf die Notwendigkeit vertrauensvoller Partnerschaften mit den Tech-Anbietern hin, um Medieninhalte korrekt über KI zu transportieren. Was fehlt, ist eine Art TÜV für KI, so könnte man seine Worte übersetzen – Standards, um Missverständnisse und Fehler zu minimieren. Ein eigens entwickeltes Toolkit soll Anbietern und Nutzerinnen helfen, KI-Nachrichtenquellen besser einzuschätzen und die Qualität der Antworten zu heben. Und eines ist für die 22 beteiligten Rundfunkanstalten klar: Einmal hinschauen reicht nicht, bei so schnelllebiger Technik braucht es permanente Kontrolle. Deshalb fordern sie auch Regulierungsbehörden auf, bestehende Gesetze endlich konsequenter umzusetzen und unabhängige Prüfungen institutionell zu verankern. Über 3.000 KI-generierte Nachrichtenantworten haben Journalistinnen und Journalisten quer durch Sprachen und Länder auf den Prüfstand gestellt – bewertet wurde unter anderem die Exaktheit, aber auch ob Meinungen korrekt von Tatsachen getrennt und Kontext sauber dargestellt wurden. Schon eine BBC-Vorstudie im Februar 2025 hatte gewarnt: Fehlerhafte KI-Antworten sind weniger Ausnahme als Regel.
Die großangelegte Studie der Europäischen Rundfunkunion legt offen, dass KI-Assistenten im Umgang mit Nachrichteninformationen gravierende Mängel aufweisen. In beinahe jedem zweiten Fall wurden Fakten falsch dargestellt, ohne signifikante Unterschiede zwischen unterschiedlichen Assistenten oder Sprachen. Die beteiligten Medienhäuser, darunter ARD, ZDF und BBC, sprechen sich erneut klar für journalistische Qualitätskontrolle und stärkere Regulierung aus – ein klares Bekenntnis zur Notwendigkeit verlässlicher, unabhängiger Nachrichtengebung. Hinzu kommt – und das betonen viele aktuelle Medienberichte –, dass die rasante Entwicklung der KI sowohl Chancen als auch Risiken für die Informationslandschaft birgt. Bemerkenswert: Das 'Toolkit zur Genauigkeit bei KI-Assistenten' ist ein erster Versuch, gezielt Gegenmaßnahmen zu entwickeln und die Medienkompetenz von Nutzerinnen und Nutzern zu stärken. Weitere Recherchen zeigen, dass ähnliche Problemfelder auch in jüngsten Debatten um KI-Einsatz in den Medien aufgeworfen werden. Verglichen mit anderen Journalismus-Bereichen entwickeln sich Regulierungsansätze eher zögerlich. Die Forderung nach fortlaufender, unabhängiger Kontrolle sowie nach einer verbesserten Zusammenarbeit zwischen Medienhäusern und KI-Anbietern zieht sich durch zahlreiche aktuelle Stellungnahmen und Artikel.