Weniger Gesichtserkennung – mehr Datenschutz: Warum der Verzicht auf Scans mehr als eine Einschränkung ist

Louisa Specht-Riemenschneider, Deutschlands oberste Datenschützerin, nimmt Gesichtserkennungstechnologien kritisch unter die Lupe und sieht in ihnen nicht nur Risiken, sondern auch Chancen für mehr Privatsphäre.

heute 13:19 Uhr | 3 mal gelesen

Es gibt ja so einen naiven Glauben – Technik, die präzise im Gesicht liest, müsste doch sicher sein. Aber wie so oft, steckt der Teufel im Detail: Gesichtsscans gelten unter Datenschützern wie Louisa Specht-Riemenschneider als fragwürdig, weil sie eben fehleranfällig sind und tiefgehende Eingriffe in die Privatsphäre erlauben. Muss ich wirklich jedem Automaten meine biometrischen Daten anvertrauen? Irgendwie fühlt man sich auch beobachtet, auch wenn niemand da ist. Die Datenschutzbeauftragte betont, dass gerade solche invasiven Methoden datenschutzrechtlich heikel bleiben und dass Alternativen notwendig sind – am besten solche, die möglichst wenige Daten verlangen. Ein bisschen fühlt sich das an wie die Suche nach dem kleinsten gemeinsamen Nenner: Wie schütze ich Identität, ohne zu viel von mir preiszugeben? Specht-Riemenschneider sieht darin aber auch Potential: Denn der Verzicht auf Gesichtsscans könnte Innovationen auslösen, neue, sparsamere Verfahren zur Altersüberprüfung und Identitätsfeststellung. Sie hofft darauf, dass wir nicht dauerhaft in die Sammlung biometrischer Daten abrutschen – und wer ehrlich ist, will vielleicht auch nicht, dass ein Algorithmus mich am Kiosk erkennt, nur weil ich ein Päckchen Kaugummi kaufe.

Die Bundesdatenschutzbeauftragte Specht-Riemenschneider warnt eindringlich vor den zahlreichen Schwachstellen und Risiken automatisierter Gesichtserkennung, insbesondere hinsichtlich des Schutzes sensibler personenbezogener Daten. Sie plädiert nachdrücklich für Alternativen, die mit weniger Datenerhebung auskommen und nicht auf biometrischen Charakteristika wie Gesichtern basieren. Im Internet hat die Debatte zuletzt wieder Fahrt aufgenommen: Einige Länder gehen gegen den Einsatz von Gesichtserkennung vor, während Unternehmen kreative „datensparsame“ Lösungen zur Identitätsprüfung und Altersverifikation testen – etwa Zwei-Faktor-Authentisierung oder anonyme Token. Die Sorge wächst international, weil Falschzuordnungen, unkontrollierte Datenverarbeitung und ein generelles Gefühl der Überwachung nicht auszuschließen sind. Außerhalb von staatlichen Behörden kritisieren Bürgerrechtler*innen und Technikexpert*innen, dass der öffentliche Raum durch ständige Videoanalysen und Gesichtsscans in Richtung eines permanent überwachten „gläsernen Menschen“ rutscht. Wer genauer hinschaut, erkennt: Gerade in Europa werden seit einiger Zeit Gesetze und Richtlinien verschärft, um die Datensammelei einzudämmen – ein weiter Weg, aber einer, der laut Specht-Riemenschneider Zukunft hat.

Schlagwort aus diesem Artikel