Sibylle Anderl hat im Montagsblock /212 bekannt, dass ihre Oma sie einen alten Remisenkater genannt hat. Sie (also Sibylle, nicht ihre Oma) wollte damit zeigen, wie unwahrscheinlich es ist, dass sprachbasierte KI-Systeme solche individuellen, an kleine Sprachgemeinschaften gebundenen Bedeutungen „verstehen“. Ein anderes Beispiel war eine eigentümliche Formulierung („Schuss Fuffzig“), für die es außer dem konkreten Gebrauch in einer kleinen Sprachinsel keine kanonisierte Bedeutung gibt, weswegen etwa ChatGPT daran scheitern muss. Sibylle hat darauf hingewiesen, dass die Nicht-Auffindbarkeit solcher eigensinniger Formulierungen durch KI-gestützte Systeme womöglich auf die Gefahr sprachlicher Verarmung beim Einsatz solcher Systeme hinweist. Lege man Wert auf sprachliche Performanz, könne solche Software nicht zufriedenstellen.
Sibylle hat Recht – wobei auch hier mit steigendem quantitativem Zugriff auf Datenbanken und praktischer Selbstoptimierung der Systeme die Ergebnisse wohl besser werden. Aber ich will nicht technisch dilettieren, sondern auf die nicht-technische Seite der Sache sehen. Der wachsende Erfolg sprachbasierter KI enthält eine Demütigung, die Demütigung nämlich, wie berechenbar sprachliche Ereignisketten letztlich sind. Es reicht ein stochastisch ausgefuchstes Modell, um eine Benutzeroberfläche entstehen zu lassen, der man vielleicht keine Urteilskraft nachsagen kann, deren Ergebnisse aber so aussehen, wenn sie auch in der ästhetischen Anmutung (noch) nicht voll befriedigen und zu allzu idiosynkratischen Überraschungen nicht fähig sind.
Wir beruhigen uns damit, dass diese Systeme nicht wirklich verstehen – sie wissen nichts von dem, was sie da tun. Man kann die Geschichte aber auch andersherum erzählen. Diese Systeme sind nur deshalb inzwischen so leistungsfähig, weil sie genau das tun, was auch in zeichenbasierter menschlicher Kommunikation stattfindet: Sie richten sich an der Konvention wahrscheinlicher Anschlussfähigkeit aus und werden dann intelligent genannt, wenn es zu kleinen Abweichungen vorgängiger Erwartungen kommt, was dann wahrscheinlicher wird, wenn es sich um stochastische und nicht kausal festgelegte Räume handelt. Der Stabilitätsgarant und zugleich die Grundlage von Abweichungswahrscheinlichkeit in zeichen-/sprach-/sinnbasierten Systemen ist kaum anderes als konventionelle Anschlussfähigkeit. Was wir in sozialen Systemen „Verstehen“ nennen, ist kaum anderes als zu große Überraschungsvermeidung in dynamischen, temporalisierten Systemen, die sich prozesshaft reproduzieren und Stabilität vor allem durch Selbstbestätigung entwickeln – weswegen man ja bei nötigen Veränderungen an der prozesshaften Strukturfestigkeit der Welt verzweifeln kann. Wir kommen am besten durch den Alltag, indem wir Erwartungen erfüllen. Wir sind stochastische Maschinen, die Bedeutungen dadurch lernen, dass sie sich mit hoher Wahrscheinlichkeit in bestimmten Kontexten bewähren.
„Verstehen“ erwächst aus Bestätigung, Bewährung, Wiederholung, Kontextualisierung – und Neues, Individuelles, Unverwechselbares, Idiosynkratisches basiert exakt auf diesem Boden des Erwartbaren, den man voraussetzen muss, um Abweichungen überhaupt registrieren zu können. Soziologisch würde man von der Doppelfunktion der Lebenswelt als unbefragter Boden einerseits und potentieller Horizont andererseits sprechen. Unser Alltagsverhalten ist eine permanente Berechnung von Möglichkeiten. Und Lernen ist der Versuch, Bewährungsformen zu etablieren und Abweichungsmöglichkeiten zu etablieren.
Wenn hier von Alltagsformen die Rede ist, meint das nicht, dass es nur im oberflächlichen Alltagsverkehr gilt. All das gilt auch für Expertenkulturen, vielleicht gerade für diese, die Kontur vor allem dadurch bekommen, dass sie sich eine erwartbare Kontur verschaffen. Das hat positive wie negative Effekte. Wenn ich allein an die begrifflichen Konventionen meines eigenen Faches denke, kann man manchmal daran verzweifeln, dass das laute Ausrufen eines Begriffs schon fast das ganze Argument enthält und sich in Selbstbestätigungsroutinen Zufriedenheit mit der eigenen Position breit macht. Die Stochastik der Begriffs- und Bedeutungswahl folgt gewissermaßen jenen Routinen, die man gelernt hat und mit denen man dann im alltäglichen Bewährungskampf ausgestattet wurde. Und das zu kritisieren ist eigentlich problematisch, weil es letztlich erwartbar ist – und weil es die Bedingung der Möglichkeit von Abweichung darstellt.
Auch für öffentliche Debatten gilt all das. Die einen skandieren „Kapitalismus“, die anderen „Freiheit“, und schon weiß man Bescheid – nicht über den Kapitalismus und nicht über die Freiheit, aber wie die Anschlusswahrscheinlichkeiten bei wem verteilt sind. Genau an diesem Mechanismus setzten Produkte wie ChatGPT an – ihr Asset ist weniger die technische Rafinesse als die Strukturiertheit ihres Gegenstandes, die Musterhaftigkeit von Erwartungsstrukturen und die Niedrigschwelligkeit des „Verstehens“.
Die Demütigung besteht darin, dass mit den sprach-/textbasierten Datenbanken als Material solcher sprach-/textbasierter KI letztlich die gesellschaftliche Verteilung wahrscheinlicher Anschlüsse verwaltet wird – nicht mehr und nicht weniger. Ich habe an anderer Stelle* gezeigt, dass die Digitaltechnik nur deshalb zur Leittechnik unserer Zeit avancieren konnte, weil sie exakt an den stochastisch verteilten (und damit: messbaren) Anschlusswahrscheinlichkeiten ansetzt und daran Geschäfts-, Kontroll- und Erkenntnismodelle andocken konnte und kann. ChatGPT und ähnliche Programme machen sich das zunutze – und sie zu kritisieren, weil sie doch eigentlich gar nicht „intelligent“ sind, verkennt, wie sich Intelligenz, Zurechnungsfähigkeit und Information auch ohne solche Apparate in praxi darstellt.
ChatGPT usw. docken am allgemeinen Gerede an und prolongieren es. Sie sind eine Herausforderung dafür, unter welchen Bedingungen produktive Abweichungen möglich sind, die sich freilich auch und immer nur auf dem Boden des Bestehenden ereignen können. Man kann sich intelligenter und weniger intelligent, d.i. völlig affirmativ oder mit einer gepflegten Abweichung auf die Dinge beziehen. Inwieweit auch dies im Rahmen berechenbarer Erwartbarkeiten geschehen wird, wird die technische Kapazität und ihre empirische Umsetzung zeigen. Gewöhnen sollte man sich daran, wie Verstehbarkeit in der Gesellschaft ohnehin hergestellt wird: so nämlich, dass man sie relativ banal berechnen kann.
Wir hoffen also auf die gepflegte Abweichung mit Informationswert, in aller Demut wohl wissend, dass alle Transzendierung des Immanenten unheilbar nur immanent erfolgen kann. Ich bin gespannt, was der alte Remisekater aus unserem Herausgeberteam dazu sagen wird.
Armin Nassehi, Montagsblock /216
10. April 2023
* Armin Nassehi: Muster. Theorie der digitalen Gesellschaft, München 2019.