Wenn KI amerikanisch klingt: Warum ChatGPT & Co. oft mehr filtern als antworten
Wien – Wie „frei“ ist künstliche Intelligenz wirklich? Zwar preist man KI gern als objektiv und rein datengetrieben, aber aus meiner Sicht – sagen wir es ehrlich – klingen viele Antworten verdächtig nach amerikanischer Schablone: poliert, vorsichtig, auf Harmonie gebürstet. Was steckt dahinter? KI-Systeme wie ChatGPT, Claude oder Gemini schweigen auffällig oft zu schwierigen Themen, vor allem, wenn es um Religion, Politik oder soziale Fragen geht. „Das ist kein Zufall“, meint Alois Gmeiner, Präsident von Ethik pro Austria, der das Verhalten dieser Modelle kritisch unter die Lupe nimmt. Seine Beobachtung: Viele dieser Filter und Einschränkungen kommen direkt aus Amerika – und tragen dazu bei, die Debattenkultur weiter zu spalten.
heute 13:31 Uhr | 16 mal gelesen
Neutralität und KI? Ein Trugbild. Ich habe zum Beispiel mit ChatGPT ein längeres „Gespräch“ über Religion geführt – was dabei auffällt: Kritische Details werden plötzlich weichgespült, Antworten geraten seltsam diplomatisch. Das kommt nicht von ungefähr. Gmeiner sagt, der technische Rahmen stammt meist von US-Firmen, die durch kulturelle und rechtliche Bedingungen in ihrer Heimat geprägt sind. Ehrlich gesagt: Was anfangs nach globaler Objektivität klingt, ist oft ein amerikanisch gefärbtes Regelwerk. Zu sehr darauf bedacht, niemandem auf die Füße zu treten – außer vielleicht denjenigen, die kritische Debatten führen wollen. Besonders heikel scheint Religion: In den USA schon von Hause aus ein Minenfeld, und genau das überträgt sich in die KI, von Safety-Layern ganz zu schweigen. Diese schützen Anbieter vor Skandalen, aber sie verhindern gleichzeitig offene Kritik und wissenschaftliche Auseinandersetzung. Ironischerweise verkommt so ausgerechnet das Werkzeug, das Wahrheit und Vielfalt verspricht, zu einer Art „Höflichkeitsgenerator“ – glatt, neutral bis zur Beliebigkeit und mit eindeutiger moralischer Färbung. Manche würden sagen: ein kaum verhohlenes Soft-Power-Instrument. Machen wir uns nichts vor, sagt auch Gmeiner: KI will, aus Juristenangst und zur Publicityvermeidung, möglichst konfliktfrei bleiben, bringt aber damit neue Zensurbereiche hervor. Wer auf ehrliche Kritik oder tiefer gehende wissenschaftliche Bewertung hofft, wird enttäuscht. Das kann in letzter Konsequenz nicht nur Debattenkultur lähmen, sondern den gesellschaftlichen Tunnelblick verstärken – und irgendwo, tief drin, hat mich das persönlich dann doch beunruhigt.
Mythos der neutralen künstlichen Intelligenz? Man sollte skeptisch sein: Die meisten großen Sprachmodelle werden in den USA entwickelt, geprägt von US-Gesetzen, kultureller Zurückhaltung und ökonomischen Interessen. Deshalb filtern KI-Systeme wie ChatGPT Inhalte besonders streng – vor allem, wenn es um Religion, Kultur oder kontroverse gesellschaftliche Themen geht. Aktuell wird dieses Thema auch international diskutiert. Die New York Times berichtet beispielsweise, wie Tech-Konzerne ihre KI-Tools anhand konservativer sozialer Normen trainieren, um Verstöße gegen US-Vorgaben zu vermeiden. Laut Süddeutscher Zeitung wird in Europa die zunehmende Abhängigkeit von US-Unternehmen kritisiert, die technologische Standards unilateralisieren und globale Diskurse einengen. Ein gerade erschienener Bericht auf ZEIT Online analysiert den wachsenden Ruf nach „KI-Souveränität“ in Europa und die Frage, wie dezentrale, regional kontrollierte KI-Lösungen die Meinungsvielfalt tatsächlich schützen könnten. Jeder dieser Aspekte zeigt: Die moralische und politische Färbung von KI ist kein Randphänomen, sondern zentraler Bestandteil ihrer derzeitigen Funktionsweise. Kritiker fordern bereits transparentere Algorithmen und stärkere Mitsprache außerhalb der USA.