Haftungsrisiken des automatisierten und autonomen Fahrens. Jonathan Hinze
§ 2 Zur Terminologie
Eine zielführende Erörterung juristischer Fragestellungen erfordert zunächst einen terminologischen Konsens. Im Bereich der selbstfahrenden Fahrzeuge sind es insbesondere die Begrifflichkeiten der „Automatisierung“ und „Autonomie“, die ein gewisses Maß an Erklärungsbedürfnis hervorrufen und umgangssprachlich häufig vermischt und vereinheitlicht werden. Ergänzt durch relativ bedeutungsarme Zusätze wie „intelligent“ oder „smart“ ergibt sich dann häufig nur ein sehr vages Bild des technologischen Fortschritts, der aber gerade auch in der rechtlichen Aufarbeitung einen entscheidenden Unterschied bei der Bewertung einzelner juristischer Probleme darstellen kann. Das betrifft im Übrigen nicht nur den Bereich der selbstfahrenden Fahrzeuge, sondern durchzieht gleichermaßen die gesamte Industrie („Industrie 4.0“) und Privathaushalte („Internet der Dinge“).
A. Künstliche Intelligenz
Der wohl verbreitetste Ausdruck für das branchenübergreifende technologische Gesamtphänomen lautet „künstliche Intelligenz“ (KI).2 Der Begriff ist durch die ihm zuteil werdende wissenschaftliche und mediale Aufmerksamkeit mittlerweile so verbreitet, dass ein gänzlicher Verzicht, wie teilweise gefordert,3 unmöglich erscheint.4 Ein genaueres Verständnis von KI und seiner wesentlichen Kerneigenschaften kann deshalb helfen, die Technologie zu verstehen und ihr Potential zu erkennen.
I. Ansätze einer Definition
Der Begriff der „künstlichen Intelligenz“5 ist schon durch seine Wortzusammensetzung sehr auslegungsbedürftig6 und deshalb in der Wissenschaft nicht unumstritten.7 Wir verbinden mit ihm üblicherweise eine ganze Fülle von (zukünftigen) technischen Errungenschaften, die Verhaltensweisen an den Tag legen können, die bis dato dem Menschen vorbehalten waren.8 Die Definitionsversuche sind vielfältig und lassen erkennen, dass ein gemeinsamer Nenner wohl nur schwer zu finden sein wird.
So beschreiben Erhardt und Mona künstliche Intelligenz als einen nicht durch Evolution entstandenen, sondern künstlich erschaffenen intelligenten Akteur.9 Böhringer versteht künstliche Intelligenz als einen Algorithmus, der in einem nichteindeutigen Umfeld eigenständig Entscheidungen trifft.10 Nach John beschäftigt sich künstliche Intelligenz mit der Verarbeitung von Wissen, ohne dabei wie klassische informatische Systeme auf einen Lösungsalgorithmus zurückzugreifen, sondern Wissen neu zu akquirieren.11 Die Liste der Definitionsversuche könnte noch sehr lange fortgeführt werden und soll durch diese Arbeit nicht um einen weiteren Eintrag ergänzt werden. Klar ist jedenfalls, dass es sich bei KI nicht um ein Lebewesen handeln kann, sie dem biologischen Vorbild aber insbesondere durch die Eigenschaft der Lernfähigkeit ähneln kann. Handelnder ist dabei eine Software, genauer ein Algorithmus, der vielerorts auch als „Agent“ bezeichnet wird.12
II. Allgemeine und spezialisierte künstliche Intelligenz
Wichtiger als eine punktgenaue Definition ist, dass zwischen zwei völlig unterschiedlichen Zweckbestimmungen einer KI differenziert werden muss. Unterschieden wird zwischen der allgemeinen (oder auch „starken“) und der spezialisierten (oder auch „schwachen“) KI.13 Die allgemeine KI ist dem Menschen in seiner gesamten intellektuellen Fertigkeit und Gefühlswelt nachempfunden; hier geht es um nicht weniger als das Schaffen einer Maschine mit einem Ich-Bewusstsein, auf Grundlage dessen sie Entscheidungen treffen und reflektieren kann.14 Sie ist Nährboden zahlreicher Science-Fiction-Visionen, die thematisieren, ob Maschinen eines Tages die Autorität des Menschen in Frage stellen könnten.15 Mit der Realität hat das aber aktuell noch wenig zu tun. Die heutige Forschung beschäftigt vielmehr die spezialisierte KI, die einen anwendungsbezogenen Algorithmus beschreibt.16 Anders als die starke ist die schwache KI lediglich in der Lage, nur ganz konkrete Anwendungsprobleme algorithmisch zu lösen.17 Man findet diese Form spezialisierter KI bereits seit einigen Jahren etwa in der Sprach- und Bilderkennung18 oder bei sog. Expertensystemen.19 In naher Zukunft wird mit einer allmählichen Erweiterung der Anwendungsfelder auf größere Aufgabengebiete gerechnet; komplexe Robotik-Systeme sollen ehemals menschliche Tätigkeiten in Industrie und Haushalt teilweise in Gänze übernehmen können.20
III. Eigenschaften künstlicher Intelligenz
Der Versuch einer begrifflichen Konkretisierung führt also zunächst zu der Feststellung, dass die aktuelle wissenschaftliche Diskussion um die technische und rechtliche Realisierung einer KI – die auch Thema dieser Arbeit ist – eigentlich nur einen kleinen Teil des gesamten Phänomens betrifft. Nichtsdestotrotz nimmt der Aspekt der „Intelligenz“ auch im Rahmen der „schwachen“ Form einer KI eine Schlüsselrolle ein. Unter Intelligenz (lat.: intelligentia) wird für gewöhnlich die Fähigkeit verstanden, „abstrakte Beziehungen herzustellen und zu erfassen sowie neue Situationen durch problemlösendes Verhalten zu bewältigen.“21 In Bezug auf Intelligenz von Computern stellte Alan Turing bereits 1950 im Rahmen des berühmten „Turing-Tests“ die These auf, dass sich das Verhalten intelligenter Computer durch ihre Ähnlichkeit zu menschlichem Verhalten auszeichnet.22 70 Jahre später erscheint dieser Befund angesichts intelligenter Softwaresysteme aktueller denn je; die Forschung hat sich im Wesentlichen auf drei charakteristische Kerneigenschaften verständigt:
Erstens müssen sie in der Lage sein, die Umwelt mittels geeigneter Hardware überhaupt wahrzunehmen, diese Wahrnehmungen zu interpretieren und bei Veränderungen das eigene Verhalten aktiv anzupassen (Reaktion).23 Zweitens ist es erforderlich, dass der Agent in Kommunikation mit Mensch und Maschine treten kann, also „vernetzt“ ist (Kooperation).24 Drittens kann der Agent aus seinen Erfahrungen lernen, ohne dass dazu eine Anpassung der Software durch den Menschen notwendig ist (Proaktion).25 Gerade letzterer Aspekt soll in den kommenden Jahren durch die Entwicklung sog. künstlicher neuronaler Netze möglich gemacht werden, die dem biologischen Vorbild nachempfunden sind26 und durch die Systeme einen technischen Lernprozess durchlaufen können.
IV. Determinismus und Vorhersehbarkeit
Eigenständige Lernprozesse wecken nicht nur beim Laienanwender künstlicher Intelligenz das Bedürfnis, proaktive Lernmuster und die Ursache bestimmter maschineller Verhaltensweise zu verstehen.27 Bei herkömmlichen Computerprogrammen ist der Zusammenhang von Ursache und Wirkung noch vergleichsweise einfach feststellbar, weil auf einen Befehl nur eine eindeutig feststellbare Anzahl möglicher Wirkungen folgen kann. Sie zeigen deshalb ein klar deterministisches Verhalten. Künstliche neuronale Netze haben demgegenüber keinen eindeutigen Output, sondern durchsuchen zunächst vorher antrainierte Datensätze in mehreren Schichten („Layers“) nach vorher festgelegten Eigenschaften (daher „deep learning“).28 Zwischen den „Input“- und den „Output-Layers“ kann auf die Funktionsweise der sog. „Hidden-Layers“ Einfluss genommen werden, indem mathematische Funktionen die Gewichtung einzelner Informationen bestimmen.29 Diese Algorithmen sind aber derart variabel, dass nach dem heutigen Stand der Technik der herausgegebene Output weder vorherzusehen noch ex post nachzuvollziehen ist.30 Obwohl an technischen Methoden gearbeitet wird, um das Ergebnis eines Lernprozesses erklärbar zu machen und die möglichen Ursachen eines konkreten Resultats zumindest eingrenzen zu können (sog. „explainable AI“),31 bleiben diese Möglichkeiten auf das nachträgliche Nachvollziehen eines bereits durchlaufenen Prozesses beschränkt.32 Die „Unerklärbarkeit“ der neuronalen Prozesse bedeutet indes nicht, dass diese nicht nur den Menschen mathematisch determiniert sind.
2 Erstmals wurde der Begriff 1956 von John McCarthy auf einer Konferenz in Hanover, New Hampshire, verwendet, Konrad, in: Siefkes/Eulenhöfer/Stach/Städler, Sozialgeschichte der Informatik, S. 287. 3 Für die juristische Literatur etwa Herberger, NJW 2018, 2825 (2826).