Das New Yorker "AI Now Institute" warnt in seinem Jahresbericht vor dem unregulierten Einsatz von Gesichtserkennung und Künstlicher Intelligenz.
Nicht nur Facebook, Amazon und Microsoft nutzen Gesichtserkennung und bieten diese Software zahlenden Kunden an. Auch in Deutschland hatte zuletzt der Großversuch der deutschen Polizei am Berliner Südkreuz für Diskussionen gesorgt. Das Problem: Die Technologie zur Gesichtserkennung wird eingesetzt, ohne dass bisher über ethische Dimensionen und mögliche Regulierungen gesprochen wird.
Das New Yorker "AI Now Institute" fordert jetzt in seinem Jahresbericht, dass Staaten enge Grenzen ziehen müssten für den Einsatz von Gesichtserkennung und Künstlicher Intelligenz. Denn durch die Technologie sei es möglich, die Bewohner eines ganzen Landes komplett zu überwachen. Deshalb müsse deren Einsatz streng reguliert werden.
Mit dieser Forderung steht Ai Now aber nicht alleine da. Auch Microsoft-Chef Brad Smith hat in einem eindringlichen Appell neue Gesetze zur Regulierung der automatischen Gesichtserkennung gefordert. Denn obwohl es noch keine eindeutigen Regelungen gibt, wird Gesichtserkennung bereits in vielen Ländern eingesetzt. Zum Beispiel von der Polizeibehörde in China, den USA und in Deutschland.
Das Problem: Tests haben gezeigt, dass die Software rassistische Stereotype reproduziert. Und nicht nur Polizeibehörden machen von der Technologie Gebrauch. Auch Musikerin Taylor Swift hat bereits auf ihren Konzerten Gesichtserkennung eingesetzt, um in der Masse Gesichter bekannter Stalker zu erkennen.
Gefährliche Affekterkennung
Besondere Sorge bereitet den Forschern bei Ai Now die sogenannte Affekterkennung. Dabei geht es darum, anhand der Mimik oder des Verhaltens einer Person Rückschlüsse auf den Charakter oder die Fähigkeiten zu ziehen. Ein solches System wird zum Beispiel von der Personalbeschaffungsfirma "Hire Vue" eingesetzt. Das Unternehmen rekrutiert unter anderem Mitarbeiter für Großkonzerne wie Unilever oder die Hilton-Hotel-Gruppe.
"Das System kann angeblich den Ton, die Wortwahl und den Gesichtsausdruck eines Kandidaten beim Bewerbungsgespräch analysieren und seine Fähigkeiten für den späteren Job einschätzen."
Ai Now bewertet den Einsatz dieser Systeme als brandgefährlich. Denn bisher gäbe es keine verlässlichen Studien, die zeigen, dass die Marketingversprechen solcher Firmen überhaupt wahr sind.
"Trotzdem wird diese Technologie heute bereits in Bewerbungsgesprächen, bei der Vergabe von Versicherungen oder in der Polizeiarbeit eingesetzt."
Um eine sinnvolle Gesetzgebung und Regulierung zu erreichen, empfiehlt das New Yorker Institut, eine kompetenzbezogene Verantwortlichkeit einzurichten. Das heißt konkret: Keine nationale Aufsichtsbehörde, sondern eine Entscheidung über den Einsatz je nach Behörde und Einsatzbereich.
Eine nationale Behöre könne nicht genug Detailwissen in allen Bereichen haben, um richtige Entscheidungen zu treffen. Genau so eine nationale Behörde ist aktuell in Deutschland geplant.
In der Ende November vorgestellten KI-Strategie heißt es, Deutschland wolle ein "Observatorium für künstliche Intelligenz"einrichten, das die Verbreitung und Auswirkungen von KI beaufsichtigen soll. Also im Prinzip genau das, wovon das New Yorker Forschungsinstitut abrät, schreibt Netzpolitik.org in seinem Artikel.
- Tests in Berlin: Gesichtserkennung: Hersteller warnen vor Gefahren | Am Berliner Bahnhof Südkreuz wurden ein Jahr lang die Gesichter von Freiwilligen gescannt. Zum Test. Fazit? Die Politik äußert sich (noch) nicht – die Hersteller selbst sehen Chancen, aber auch Gefahren.
- Fingerabdruck, Irisscan und Co. | Körperdaten als Risiko | Eigentlich sollen biometrische Systeme unser Leben sicherer machen. So einfach ist die Theorie. Wir haben uns Biodaten in der Praxis angesehen.