Kämpf um deine Daten. Max Schrems

Kämpf um deine Daten - Max Schrems


Скачать книгу
Bildet eine digitale Prognose dann nur unsere freien Gedanken ab oder unsere inneren Zwänge?

      Wie viel Macht haben Einrichtungen und Experten, die das berechnen können? Sollen Private das überhaupt dürfen? Soll der Staat das dürfen? Wer kontrolliert das? Wollen wir, dass irgendjemand so viel Macht hat? Wollen wir, dass jemand in unser Hirn blickt und berechnen kann, was darin vermutlich zukünftig passieren wird?

      Was passiert, wenn der Algorithmus falsch liegt? Wer haftet für eine Fehlprognose? Wie kann eine Fehlprognose überhaupt bewiesen werden, wenn schon wegen der Prognose eine mögliche Tat, ein Vertrag oder ein Kredit nie zustande kommt? Trifft dann nicht der Algorithmus schon vorab eine Entscheidung, die im Einzelfall faktisch nicht mehr als die falsche enttarnt werden kann?

      Konkret bei Straftaten: Wenn ein Computer vorab mit hoher Wahrscheinlichkeit berechnen kann, dass jemand eine Straftat begehen wird, müssten wir dann nicht schon aus moralischen Gründen präventiv eingreifen und die Tat verhindern? Hat der Täter dann aber noch eine persönliche Schuld, wenn wir doch schon vorab berechnen konnten, dass er sich so entscheidet und insofern die Entscheidung gar nicht frei, sondern irgendwie vorgezeichnet war? Würde ein Eingriff nicht die berechnete Zukunft verändern und damit die Prognose irrelevant werden lassen? Ist ein Täter nicht genauso schuldig, wenn er nur versucht, eine Tat zu begehen, aber durch einen Eingriff von außen abgehalten wurde? Muss man diese Täter dann wegen der versuchten Tatbegehung einsperren?

      Was ist gleichzeitig mit den braven Bürgern? Wenn ein Verbrechen zu 99% aufgedeckt oder verhindert wird, dann wäre es einfach nur noch dumm, ein solches zu begehen. Wenn Sie in einer solchen Welt dann vor der Entscheidung zwischen einem richtigen und einem verwerflichen Verhalten stehen, sind Sie de facto gezwungen, richtig zu handeln. Vernichten wir damit nicht auch die Möglichkeit, zwischen Gut und Böse frei zu entscheiden und damit unsere persönliche Verantwortung? Wie kann ich mich noch aus Überzeugung ethisch korrekt verhalten, wenn ich de facto keine andere Möglichkeit habe? Verkümmert unsere Ethik dann mangels eines praktischen Anwendungsbereichs? Wo ist die Balance zwischen einer hohen Aufklärungsquote und der Freiheit, sich zwischen Gut und Böse zu entscheiden? Ist das Problem der Kriminalität wirklich gelöst, wenn man sie einfach unterdrückt?

      Begreifen wir uns in einer Welt, in der die Analysen und Prognosen unseres Verhaltens überhand nehmen, überhaupt noch als Individuum oder nur noch als Teil einer berechenbaren Masse, ohne Anspruch auf relevante individuelle Abweichungen? Machen wir uns in einem solchen System nicht zu einem total willenlosen und berechenbaren Objekt? Ist das alles noch ethisch tragbar und mit der Würde des einzelnen Menschen vereinbar?

      Fühlen Sie sich hier etwas wie bei den theoretischen Fragen aus diversen fiktionalen Filmen? Ja? Ich mich auch! Aber genau diese Fragen, und viele andere mehr, diskutieren Experten schon heute ganz ernsthaft. So extrem abgehoben sind diese Überlegungen auch nicht, denn viele der aktuellen Entwicklungen führen genau in diese Zukunft. Viele Elemente dieser Zukunft existieren heute schon und werden in Teilen auch bereits eingesetzt. Diese technische Entwicklung lässt sich auch mit einer gewissen Sicherheit fortschreiben. Die Grenze wird daher keine technische, sondern maximal eine gesellschaftspolitische sein.

      8. Computer says »No«

      Haben Sie schon mal die Fernsehserie »Little Britain« gesehen? Diese etwas skurrile Ausformung von britischem Humor hat eine für uns recht spannende Szene, die regelmäßig wiederholt wird: Eine Sachbearbeiterin namens Carol arbeitet in einer Bank und sitzt hinter ihrem Computer. Menschen kommen zu ihr, die dringend einen Kredit brauchen. Sie tippt kurz auf ihrer Tastatur herum, sieht die Kunden fadisiert an und verkündet: »Computer says No«.

      Jede weitere Diskussion erübrigt sich. Der Computer hat den Traum vom Haus, den dringend nötigen Überbrückungskredit oder den Start einer tollen Geschäftsidee mit einem einfachen Nein zerstört. Carol braucht sich um den Kunden nicht weiter zu kümmern und schiebt die Entscheidung des Computers vor. Keiner weiß, wie es zur Entscheidung kommt, warum man abgewiesen wird und ob man etwas tun kann. Der Computer sagt einfach nein, und Carol muss nicht weiterarbeiten.

      Natürlich ist das auf den ersten Blick stark überspitzt, aber in vielen Bereichen läuft es genau so: Irgendwelche intransparenten Systeme errechnen, ob wir etwas bekommen, die Kriterien und auch die Datenbasis dürfen wir nicht wissen. Wir dürfen nur wissen, dass das System nein gesagt hat.

      Die Mitarbeiter werden ebenfalls zu Automaten: Sie dürfen nicht mehr selbst entscheiden, sondern nur noch verkünden, was das System ihnen vorgibt. Damit spart man als Unternehmen an der Ausbildung der Angestellten, macht sie möglichst austauschbar und spart Kosten. In den USA ist das besonders ausgeprägt. Hier wird praktisch alles quantifiziert. Kreditscoring, Aufnahme an der Uni oder Terrorgefahr: Für alles gibt es einen Wert. Wenn der Computer entscheidet, dass man in eine gewisse Schublade gehört, ist das Ende der Debatte erreicht: »Computer says No«. Kein Mensch ist mehr verantwortlich, verantwortlich ist das System, und dieses entscheidet autoritär, wie der König das früher tat. Man kann das System nicht hinterfragen, man darf nicht wissen wie es zur Entscheidung kam, und man kann schon gar nicht seinen persönlichen Einzelfall erklären. Es entsteht eine schleichende Algorithmusdiktatur.

      Die ersten Ansätze haben wir heute schon. Als ich das letzte Mal in die USA geflogen bin, erklärte mir der Mitarbeiter am Check-In, dass auf meiner Karte vier »S« gedruckt sind. Das steht für »Secondary Security Scanning Scheme«. Der Mitarbeiter weiß auch nicht, warum ich auserwählt wurde. Die Markierung SSSS bekommen die Austrian Airlines von den US-Behörden übermittelt. Ich musste jedenfalls zu einer Sonderuntersuchung, in der ich von oben bis unten abgetastet wurde und mein Handgepäck feinsäuberlich neben allen anderen Passagieren ausgebreitet wurde. Die Blicke der anderen Leute waren klar: Was ist denn mit dem los? Zum Glück hatte ich keine Kondome oder Ähnliches dabei. Warum der Zirkus? »Computer says SSSS«. Weder der Austrian Airlines-Mitarbeiter noch die Sicherheitsleute wissen, warum jemand unter die Räder kommt, das weiß nur der Algorithmus.

      Zurück in Wien hatte ich dann noch die Freude, dass ein weiterer Computer einen gelben Rahmen um etwas in meinem Gepäck machte. Also wurde ebenfalls mein ganzes Gepäck von einer Zollwachebeamtin durchsucht.

      Zollwache: »Haben Sie Essen mitgenommen?«

      Ich: »Nein, wieso?«

      Zollwache: »Sicher haben Sie Essen mitgenommen!«

      Ich: »Wie kommen Sie darauf?«

      Zollwache: »Da ist ein gelber Rahmen am Bildschirm!«

      Ich: »Auf was reagiert denn der Computer? Dann kann ich Ihnen vielleicht sagen, was es ist. Essen ist es sicher nicht.«

      Zollwache: »Was weiß ich, auf was er reagiert, ich bin Hausfrau!«

      Also stand ich da und ließ von der Zollwachebeamtin (die sich selbst nicht als Beamtin, sondern als Hausfrau bezeichnete) mein Gepäck 15 Minuten lang durchsuchen. Am Ende ohne Erfolg. Warum der ganze Zirkus? »Computer said: Durchsuchen.«

      Das sind nur ein paar von hunderten Beispielen, in denen wir unsere Entscheidungen der Software überlassen. Das kann zwar auch seine positiven Seiten haben, so ist es einem Computer zum Beispiel im Prinzip egal, ob Sie weiblich oder männlich, Inländer oder Ausländer sind. Gleichzeitig unterlaufen wir mit der Übertragung von Entscheidungen von Menschen auf Maschinen aber jede Art von persönlicher Verantwortung, die unsere Gesellschaft ausmacht. Ein Algorithmus ist weder moralisch noch faktisch verantwortlich für das, was er tut. Kein Mensch kann nachfragen: Warum? Keiner kann sagen: Aber! Der Algorithmus sagt: Nein. Punkt. Für eine Diskussion, für eine Beschwerde oder für den Sinn dahinter gibt es leider keinen Knopf.

      Genau diese Frustration über willkürliche Entscheidungsfindung hat schon Revolutionen ausgelöst. Unberechenbare, intransparente und nicht hinterfragbare Entscheidungen zeichneten bisher vor allem autoritäre Staaten aus. Deswegen haben wir sie abgeschafft und transparente, berechenbare Systeme eingeführt. Vor allem sind Entscheidungsträger heute persönlich verantwortlich für ihr Handeln. Mittels diverser automatisierter Systeme wird aber durch die Hintertüre eventuell auch an diesen Errungenschaften gesägt. Kein Beamter muss mehr erklären, warum


Скачать книгу