Gesichtserkennung. Roland Meyer

Gesichtserkennung - Roland Meyer


Скачать книгу
zwischen der physischen Welt, die wir mit unseren Körpern bewohnen, und den Plattformen, die unsere digitalen Identitäten verwalten. Schließlich ist es dasselbe Gesicht, das von einer Überwachungskamera im Fußballstadion erfasst wird und das auf unseren Instagram-Accounts abrufbar ist.

      Das digitale Gesicht ist jedoch ein instabiler Anker und ein wenig verlässliches Interface. Trotz Jahrzehnten der Forschung ist Gesichtserkennung eine fehlerbehaftete Technologie – was ihren kommerziellen Siegeszug bislang allerdings kaum aufgehalten hat (Kap. 1). Ihre Unzuverlässigkeit ist auch nicht bloß ein technischer Mangel, sondern hat strukturelle Gründe. Denn Gesichtserkennung kann immer nur Wahrscheinlichkeiten ermitteln, keine Sicherheiten schaffen. Und sie behandelt nicht alle Gesichter gleich, sondern verschärft bestehende rassistische und sexistische Diskriminierungen (Kap. 2). Insbesondere dort, wo die Technik eingesetzt wird, um Gesichter nicht bloß zu identifizieren, sondern in Hinblick auf Alter, Geschlecht, Stimmung oder gar Charakter zu analysieren, verfestigt sie nicht allein kulturelle Stereotype, sondern verändert unseren Umgang mit dem Gesicht und nötigt uns neue mimische Normen auf (Kap. 3). Gesichtserkennung produziert so digitale Masken – je nachdem, ob wir in einer bestimmten Situation erkannt werden wollen oder nicht, sind wir gezwungen, unsere Gesichter herrschenden Standards zu unterwerfen oder sie gezielt unkenntlich zu machen (Kap. 4). Gesichtserkennung lässt sich damit letztlich nicht mehr von Gesichtsproduktion trennen: Dieselben Technologien, die uns identifizieren sollen, werden dazu eingesetzt, um digitale Gesichter zu manipulieren und ästhetischen wie sozialen Normen anzupassen (Kap. 5). Digital »optimierte« Gesichter zirkulieren so als körperlose Masken in vernetzten Bilderströmen, für die unsere lebendigen Gesichter nur noch den algorithmisch verarbeitbaren Rohstoff liefern. Von dieser scheinbar grenzenlosen digitalen Verfügbarkeit des Gesichts und ihren Konsequenzen handelt dieses Buch. Eines scheint dabei sicher: »Private« Bilder werden nie wieder sein, was sie einmal waren.

       1 Faces in the Wild

      Wann immer wir unser Gesicht einer Kamera zuwenden, müssen wir heute damit rechnen, dass es digital erfasst und ausgewertet wird. Von vielen unbemerkt sind die Milliarden von Selfies, Snapshots und Videoclips, die wir täglich hochladen, zur wertvollen Ressource geworden, die kommerzielle Unternehmen, staatliche Behörden und mittlerweile selbst Einzelpersonen abschöpfen und bewirtschaften. Um zu verstehen, wie es dazu kommen konnte, lohnt ein Blick in die Geschichte. Denn automatisierte Gesichtserkennung ist keine neue Technologie, sondern kann auf eine jahrzehntelange Entwicklung zurückblicken.7

      An deren Beginn standen mäßig erfolgreiche Experimente mit dem rechnergestützten Abgleich von Fahndungsfotos, die in den 1960er-Jahren unbemerkt von der Öffentlichkeit im geheimdienstlichen Auftrag stattfanden. Doch schon 1970 konnte die Nippon Electric Company auf der Weltausstellung in Osaka eine Variante der Technologie publikumswirksam präsentieren. Im Rahmen der Attraktion »Computer Physiognomy« sollten die Proband*innen vom Rechner erfahren, welchen Prominenten ihr Gesicht besonders ähnlich sah, um anschließend ein digitales Porträt ihrer selbst ausgedruckt mit nach Hause zu nehmen. Osaka gab den Startschuss für die erste Welle der Forschung zur Gesichtserkennung. Doch trotz Erfolgen unter Laborbedingungen erwiesen sich die Probleme beim praktischen Einsatz als unlösbar, sodass die Forschung in den 1980er-Jahren stagnierte. Anders sah es auf der Kinoleinwand aus: Im James-Bond-Film Im Angesicht des Todes (A View to a Kill, 1986) ist es ausgerechnet der Schurke Zorin, der den inkognito auftretenden Doppelnull-Agenten mittels Gesichtserkennungssoftware zweifelsfrei identifiziert. Das war zwar reine Fiktion, doch sollte man deren Einfluss nicht unterschätzen. So ließ die technische Abteilung der CIA regelmäßig, wenn ein neuer Bond in die Kinos kam, die vorgeführten Gadgets auf ihre Realisierbarkeit hin prüfen. Und ohne die Flut von Filmen, die seit den 1980er-Jahren Gesichtserkennung als stets fehlerfrei funktionierende Technologie vorführten, hätte sich deren Durchsetzungsprozess sicherlich länger hingezogen.

      Dieser nahm in den späten 1990er-Jahren an Fahrt auf, als automatisierte Gesichtserkennung erstmals als kommerzielles Produkt vertrieben wurde. Maßgeschneiderte Anwendungen richteten sich etwa an Casinos, Stadionbetreiber und sogar an Privatleute, die ihren PC vor unerlaubtem Zugriff sichern wollten. Vorangegangen war dem ein Paradigmenwechsel der Forschung. Hatten die frühen Systeme auf die Vermessung einzelner stabiler Größen wie etwa Augenabstände gesetzt (# 2), kam 1991 ein neuer Ansatz auf, der auf der statistischen Auswertung von Helligkeitsverteilungen im ganzen Gesicht basierte. Beim sogenannten Eigenface-Verfahren wurden keine anatomischen Merkmale mehr erfasst, die sich auch am lebendigen Gesicht hätten abmessen lassen, vielmehr glich der Algorithmus digitale Bilddatensätze in Hinblick auf statistische Differenzen ab, die sich nur noch nachträglich für Menschenaugen als geisterhafte Schemen visualisieren ließen. (# 3) Dieser neue, »holistische« statt »merkmalsbasierte« Ansatz löste einen wahren Forschungsboom aus – wesentlich befördert durch das von der US-Regierung finanzierte FERET-Programm,8 bei dem zwischen 1994 und 1996 jeweils die vielversprechendsten Algorithmen aus den universitären Computerlaboren in standardisierten Tests gegeneinander antraten. Dabei konkurrierten Algorithmen, die das Eigenface-Verfahren nutzten, mit solchen, die auf verbesserten merkmalsbasierten Ansätzen oder Kombinationen beider Verfahren beruhten. Um die Vergleichbarkeit der Ergebnisse zu garantieren, wurde eigens eine Bilddatenbank aufgebaut, für die Hunderte von Mitarbeiter*innen eines Army Research Laboratory unter standardisierten Bedingungen digital fotografiert wurden. Der Künstler Trevor Paglen hat eine Auswahl der damals entstandenen Porträts 2017 ins Zentrum einer Arbeit gestellt. Ihr Titel: It Began as a Military Experiment. (# 4)

      #2 Takeo Kanade, Schema der merkmalsbasierten Gesichtserkennung, 1977

      #3 Matthew Turk und Alex Pentland, Eigenfaces zur Gesichtserkennung, erstmals 1991

      Dieses »militärische Experiment« bereitete den Boden für die Kommerzialisierung der Technologie, benutzten doch manche der beteiligten Forscher*innen die Testergebnisse, um mit ihnen Risikokapital für ihre neu gegründeten Firmen einzuwerben. Und die drängten dahin, wo staatliche Aufträge das meiste Geld versprachen: in die Videoüberwachung des öffentlichen Raums. Ein früher Feldversuch fand im Sommer 2001 in der Innenstadt von Tampa (Florida) statt. Eine bestehende Videoüberwachungsanlage sollte hier mittels Gesichtserkennung zum »Smart CCTV« aufgerüstet werden, um nach gesuchten Kriminellen zu fahnden. Doch das System war nicht besonders smart: Es häuften sich die Fehlalarme, und nach wenigen Wochen Laufzeit beendete die Polizei still und heimlich den Versuch.9 Echtzeitgesichtserkennung wurde seitdem immer wieder in Pilotprojekten getestet, in Deutschland zuletzt 2017/18 am Berliner Bahnhof Südkreuz. Und obwohl sich die Technologie in der Zwischenzeit deutlich verbessert hatte, erwies sie sich einmal mehr als für den flächendeckenden Einsatz untauglich – auch wenn die Verantwortlichen zunächst das Gegenteil behaupteten. Denn selbst die schöngerechneten Erkennungsraten im Pilotversuch hätten, wie der Chaos Computer Club in seiner Kritik des Abschlussberichts herausstellte, im Praxiseinsatz bedeutet, dass Tag für Tag Hunderte von Reisenden fälschlich aufgehalten worden wären, während zugleich von den wenigen gesuchten Personen ein hoher Prozentsatz unerkannt geblieben wäre.10

      #4 Trevor


Скачать книгу