Ausweitung der Kontingenzzone. Christian Schuldt
Die schwer – und mitunter auch: gar nicht – kontrollierbare maschinelle Kommunikation beeinflusst die Anschlussfähigkeit der sozialen Kommunikation, mit weitreichenden lebensweltlichen Konsequenzen. Denn auf diese Umstellung ist unsere Gesellschaft nur unzureichend vorbereitet. Die bisherigen strukturellen und kulturellen Gesellschaftsformen sind schlicht nicht geeignet, um diese „entfesselte“ Kommunikation zu verarbeiten. Die entscheidende Frage lautet deshalb: Wie gelingt es der Gesellschaft, diesen medial produzierten Kommunikations-Overflow strukturell und kulturell zu kontrollieren? Welche neuen kulturellen Muster sind dem Umgang mit Intransparenz angemessen?
Niklas Luhmann hielt es für wahrscheinlich, „dass die Beschleunigung der Kontrolloperationen dasjenige Moment sein wird, auf das die Kultur reagieren muss – und dies dann wohl mit einem Verzicht auf eine Positivwertung zeitlicher Beständigkeit“ (Luhmann 1997, 412). Genau das beschreibt der neue Fokus auf Komplexität und Kontingenz in der vernetzten Gesellschaft: Jede digitale oder digitalisierbare Kommunikation umfasst Ungleichartiges und Widersprüchliches – und erhält genau darin einen Sinn, der sich gewissermaßen selbst absichert. Die Kulturform, die es der vernetzten Gesellschaft ermöglicht, den digital produzierten Überschusssinn zu kompensieren, ist deshalb der Modus der Komplexität (siehe III. Reflexion, S. 79).
Eine – wenn nicht die – zentrale Herausforderung für Individuen und Organisationen, aber auch für die gesamte Gesellschaft, lautet deshalb: Lerne, mit diesem Komplexitätsaufkommen umzugehen. Lerne, die vernetzte Komplexität adäquat und zukunftsweisend zu verstehen und zu kontrollieren. Das ist umso schwieriger, als dass dies nicht mehr, wie noch in Vor-Internet-Zeiten, bedeutet, Komplexität möglichst stark zu reduzieren. Im Gegenteil: Heute und künftig gilt es, Komplexität zuzulassen und aufzubauen – weil sie erst dann intelligent kontrolliert werden kann.
Die Grundvoraussetzung dafür ist ein umfassendes, systemisches Verständnis von Komplexität und Kultur – und damit auch Technologie. Denn der Kontrollverlust in der nächsten Gesellschaft korreliert direkt mit dem Kontrollgewinn neuer Technologien.
Nichttrivialität: Die Potenziale der Künstlichen Intelligenz
Smarte Algorithmen sorgen dafür, dass Technik nicht-trivial wird – und damit kausal undurchschaubar. Es sind keine eindeutigen Ursache-Wirkung-Verknüpfungen mehr erkennbar, vielmehr reagieren Maschinen zunehmend rekursiv auf sich selbst, unabhängig von ihrer ursprünglichen Bestimmung, solange sie nur entsprechenden Input erhalten.
Künstliche Intelligenz (KI) ist längst ein fester Bestandteil unseres Alltags geworden. Selbstlernende Systeme steuern die Spracherkennung in Smartphones, lassen Autos autonom fahren und helfen bei maschinellen Übersetzungen, bei der Identifikation von Objekten oder Personen, bei Kreditvergaben und Vorhersagen aller Art. Big Data, billigere Computertechnologie und bessere Algorithmen haben die Technologie zur neuen Normalität werden lassen, im Internet der Dinge ist ein Leben ohne KI nicht mehr möglich. Die fortschreitende KI-Durchdringung verändert unsere Gesellschaft und schafft eine neue Realität, inklusive neuer Formen der Interaktion mit Technologie, etwa über Sprach- und Gestensteuerung.
Damit treibt KI nicht nur den Prozess des digitalen Wandels rasant voran, sondern schlägt zugleich ein neues Kapitel in der gesellschaftlichen Evolution auf: Erstmals in der Geschichte der Menschheit ändert sich die Beziehung zwischen Mensch und Maschine (vgl. Zukunftsinstitut 2019a). Selbstlernende Systeme sind immer weniger Werkzeug im herkömmlichen Sinne, sondern entwickeln eigenständige Entscheidungen, unabhängig von der Interaktion mit Menschen – selbst wenn es sich dabei auf absehbare Zeit noch immer um „schwache KI“ handelt, die kategorial von menschlicher Intelligenz zu unterscheiden ist.
In der Konsequenz hebt KI die kollektive Verunsicherung, die den Prozess der digitalen Transformation generell begleitet, nochmals auf eine neue Stufe. Diese Konfusion manifestiert sich auch in simplifizierenden und polarisierenden Mensch-Maschine-Erzählungen: Euphorische KI-Utopien und die quasireligiöse Hoffnung auf eine maschinelle „Superintelligenz“ auf der einen Seite – dystopische Ängste vor einer Unterwerfung der Menschheit durch übermächtige Roboter und Algorithmen auf der anderen. Beide Narrative trivialisieren Technologie, indem sie die komplexe Dynamik soziotechnischer Fortschritte auf einfache, tendenziell lineare Szenarien reduzieren.
Die Überschätzung macht KI zum zentralen Hype-Narrativ des digitalen Disruptionsdiskurses – und zum Vorreiter in der Disziplin „Lösungen auf der Suche nach Problemen“. Doch weil KI heute in alle möglichen Gadgets gesteckt wird, schlicht um zu zeigen, dass es geht, macht sich zugleich eine erste KI-Ernüchterung breit. Viele Nutzerinnen und Nutzer machen die Erfahrung, dass KI-getriebene Smartifizierungen fragwürdig sind (was ist „intelligent“ an einem sprachkontrollierten WC?) und sogar ein Mehr an Unzuverlässigkeit und lästigem Aufgefordertwerden bedeuten, etwa in der Interaktion mit Sprachassistenten. Und Unternehmen stellen fest, dass KI eine Organisation nicht von heute auf morgen „smart“ macht, sondern komplizierte und komplexe Implementierungsprozesse erfordert.
Hinzu kommt der generelle Vertrauensverlust in digitale Technologien, der sich insbesondere an KI-basierten Anwendungen kristallisiert. Immer deutlicher treten heute die Schattenseiten der fortschreitenden Algorithmisierung zutage, die Verhaltensmanipulation durch Apps oder Social Media, der Missbrauch durch autoritäre und kriminelle Mächte oder die Erosion des öffentlichen Diskurses, die demokratische Prozesse beschädigt und den Aufstieg des Populismus vorantreibt.
Skepsis und Ängste erzeugt auch die Tatsache, dass KI vermutlich einen ähnlich transformativen Impact auf professionelle Tätigkeiten haben wird wie einst Industrieroboter auf manuelle Routinetätigkeiten. Die möglichen Umbrüche auf dem Arbeitsmarkt sind durchaus vergleichbar mit jenen im Zuge der industriellen Revolution Mitte des 19. Jahrhunderts, als rund 90 Prozent der Jobs in der Landwirtschaft verschwanden. Einer viel zitierten Studie zufolge arbeitet in den USA rund die Hälfte der Beschäftigten in Berufen, die in der näheren Zukunft automatisierbar sind, darunter auch viele Büro- und Dienstleistungsjobs sowie „kreative“ Tätigkeiten (vgl. Frey/ Osborne 2013).
Mit KI ist die menschliche Ur-Angst, dass Maschinen uns ersetzen und irrelevant machen könnten, auch bei den Geistesarbeitern und Hochqualifizierten angekommen – bei allen, die in irgendeiner Form maschinell arbeiten, inklusive Chirurginnen oder Ingenieuren. Der Siegeszug der KI wirft daher auch die human-ökonomische Frage auf: Wofür brauchen wir künftig überhaupt Menschen in der Wirtschaft? Dafür ist es zunächst wichtig, das Verhältnis von menschlicher und maschineller Intelligenz zu klären.
Komplementarität: Mensch versus plus Maschine
Wie intelligent ist Künstliche Intelligenz? Aus menschlicher Perspektive ist Intelligenz immer verbunden mit einem besonderen „Selbst-Bewusstsein“: mit einem freien Willen und der Fähigkeit zur Selbstreflexion und Introspektion. Diese Konzepte und Kompetenzen bilden auch die Basis für die genuin menschliche Fähigkeit, mit Nichtwissen umzugehen. Das Paradebeispiel dafür ist soziale Intelligenz: Kommunikation dient immer dazu, Nichtwissen zu kompensieren, immer geht es darum, herauszufinden, worum es geht. Soziale Intelligenz ist „Intelligenz, die mit der Unberechenbarkeit selbst rechnet. Das ist paradox; und das zu akzeptieren, ist soziale Intelligenz“ (Baecker 2018b).
Die Fähigkeit, mit dem Unberechenbaren umzugehen, ermöglicht es Menschen, zu abstrahieren und neue Zusammenhänge herzustellen, Dinge zu erkennen, komplexe Probleme zu lösen. Im Kern geht es dabei um einen ganzheitlichen, systemischen Blick auf die Wirklichkeit. Maschinelle Intelligenz ist dagegen stets von Berechenbarkeit abhängig und verfügt immer nur über eine spezifische Perspektive. Das, was KI heute und in absehbarer Zeit leisten kann, beschränkt sich daher auf eine Inselintelligenz oder Tunnelbegabung: auf Rechenvorgänge und Statistiksysteme, die in klar definierten Spezialbereichen supersmart sind, aber beim Blick auf größere Kontexte scheitern.
Insofern führt bereits der Begriff „Künstliche Intelligenz“ in die