Künstliche Intelligenz ist längst kein abstraktes Technik-Gespenst mehr – KI verändert zunehmend unsere Arbeitswelt, unsere Medien und sogar, wie wir miteinander kommunizieren. Vor diesem Hintergrund fühlt sich das neue Durchführungsgesetz zur europäischen KI-Verordnung wie ein überfälliger Schritt an. Es regelt, welche Behörden in Deutschland künftig verantwortlich sind, um die – teils ziemlich anspruchsvollen – Anforderungen der EU an Transparenz, Sicherheit und Kennzeichnung umzusetzen. Aber ehrlich gesagt: Die Klarheit, die mancher sich wünscht, bringt das Gesetz auch nicht in jeder Detailfrage. Streit gibt's seit jeher über die Medienaufsicht – diesmal versucht man, die Presse und den Rundfunk noch konsequenter von staatlichem Zugriff fernzuhalten. Ob das in der Praxis funktioniert? Sicher ist nur: Die Länder bleiben für ihre Medien zuständig.\n\nHintergrund ist auch die Sorge, dass KI-Tools zunehmend für Manipulation und Falschinformationen missbraucht werden können. Umso wichtiger, sagt Kulturstaatsminister Weimer, dass Transparenzregeln – also zum Beispiel Kennzeichnungspflichten für Deepfakes – spürbar und regelmäßig kontrolliert werden. Gerade nach jüngsten Vorfällen mit KI-Anwendungen wie "Grok" ist allen Seiten klar, dass es unter dem Label "KI macht alles besser" nicht nur Fortschritt gibt. "Wir brauchen europäische Standards, nicht nur aus Prinzip, sondern weil die Risiken ganz real sind – auch bei digitaler sexualisierter Gewalt", betont Weimer. Hoffentlich bleibt es nicht bei guten Absichten.
Das neue Gesetz der Bundesregierung setzt die europäische KI-Verordnung in deutsches Recht um. Es regelt, welche nationalen Behörden für die Durchsetzung von Transparenz, Kennzeichnung und Risikobewertung zuständig sind, und klärt die Rolle einer staatsfernen Medienaufsicht – eine Debatte, die in Deutschland seit Jahren zwischen Bund und Ländern schwelt. Der Gesetzesentwurf sieht vor, dass Länder die Aufsicht über Presse und Rundfunk behalten, während der Bund für übergeordnete KI-Regeln sorgt – insbesondere im Hinblick auf die Bekämpfung von Deepfakes und digitaler sexualisierter Gewalt.\n\nAktuelle Berichte (Stand: 5. Juni 2024) zeigen, dass europaweit ähnliche nationale Umsetzungsprojekte laufen. Expert:innen fordern allerdings Nachschärfungen: Die konkrete Prüf- und Kontrollpraxis bleibt vielerorts intransparent, und es besteht weiterhin Unsicherheit darüber, welche KI-Systeme künftig als "hochriskant" gelten. Gleichzeitig drängen Medien- und Datenethiker:innen darauf, Bürger:innen und Redaktionen stärker in die Kontrolle digitaler Inhalte einzubinden. Wie umfassend und wirksam die deutschen Maßnahmen wirklich sein werden, bleibt unter Beobachtung.