Künstliche Intelligenz schöpft ihre 'Weisheit' aus den Daten des Internets, mitsamt deren unausgesprochenen Vorurteilen, betonte Karin Prien im Gespräch mit der Funke-Mediengruppe. Das Problem lasse sich ihrer Sicht nach nicht nur durch strenge Vorschriften lösen – Transparenz und nachvollziehbare Qualitätsmaßstäbe seien ebenso wichtig. Ein konkreter Fall: Bei der Bewerberauswahl pickt KI anhand alter Unternehmensdaten aus, was sich eben immer wiederholt – und benachteiligt so Frauen, wenn in der Historie vor allem Männer befördert wurden. Jene Algorithmen schauen nicht nach vorn, sondern spiegeln einfach Vergangenheiten wider, erklärte Prien. Ihr Appell: Es braucht klare Regeln zur Offenlegung von Trainingsdaten, regelmäßige Kontrollen bezüglich Diskriminierung und ein Schuss mehr Vielfalt in den KI-Entwicklerteams. "Wir sollten uns ernsthaft fragen, ob Programme, ihr Training und ihr Einsatz die Sichtweisen von Frauen und Minderheiten ordentlich erfassen können", so Prien. Außerdem wären mehr Frauen in verantwortlichen technischen Jobs dringend nötig. Das würde den Auswahlprozess der Daten und die Bewertung vermutlich spürbar verändern. Über den besten Weg sei sie sich aber selbst nicht ganz sicher. "Da ist noch zu klären, ob das mit festen Gesetzen, freiwilligen Initiativen oder Zertifikaten am besten zu erreichen ist."
Karin Prien hebt hervor, wie maschinelles Lernen bestehende gesellschaftliche Verzerrungen abbildet und damit neue Benachteiligungen verursachen kann – etwa im Bewerbungsprozess. Sie spricht sich für mehr Sichtbarkeit von Trainingsdaten, Überprüfungen auf Diskriminierung und größere Diversität bei der Entwicklung von Algorithmen aus; klassische Regulierung ist für sie nicht der einzige Weg, sondern eine Mischung verschiedener Maßnahmen scheint zielführend. Ergänzend: Neue EU-Regelungen wie der AI Act setzen europaweit vermehrt auf Transparenz und Aufsicht, während Debatten um sogenannte 'Bias Audits' zunehmen. Branchenunabhängige Studien zeigen, wie KI derzeit bereits benachteiligende Muster reproduziert – in der Medizin häufiger bei Diagnosen von Frauen, im Finanzsektor ebenso bei Kreditentscheidungen. Neben Prien warnen aktuell verschiedene Ethikräte, dass die gesellschaftlichen Auswirkungen von KI noch massiv unterschätzt werden – gerade, weil Diversität in den Entwicklungsteams fehlt.