Dass die „Künstliche Intelligenz“, „Artificial Intelligence“ eine ähnliche Medienkatastrophe sein würde wie der Buchdruck, wird schon länger diskutiert. Der Buchdruck hat nichts Geringeres geschafft, als jene ökologische Bedingung selbst zu erschaffen, in der seine Produkte nicht nur überleben können, sondern eine neue Form der Wirklichkeitsauffassung erzeugt haben. Gemeint ist ein Lesepublikum, das nicht nur aus lesenden Lesern besteht, sondern vor allem aus der Annahme, dass die anderen mit Lesbarem erreichbar sind. Die Bibliotheken (sic!) sind voller Analysen genau dieser katastrophalen Folgen – Katstrophe als der Moment einer substantiellen Wendung der Dinge. Der Buchdruck hat die Welt verändert, weil er in der Lage war, Bedeutungs- und Diskursräume zeitlich und räumlich zu dehnen. Er hat die Welt mit vielfältigen, widersprüchlichen, sich selbst ausbreitenden Formen gesellschaftlicher Selbstbeschreibung versorgt. Er hat nicht nur Gruppen von Adressaten adressiert, sondern diese erst hergestellt. Er hat die Illusion einer Kontrolle in die Welt gebracht, die er selbst tätig destruiert hat. Man dachte, dass man es nun den Menschen genauer mitteilen kann, nur um festzustellen, dass der gemeinte und der gelesene Sinn Differenzen aufweisen – es ist eine bekannte Geschichte. Und sie steht geschrieben.
Der Buchdruck hat die Art und Weise des Denkens verändert. Naiverweise würde man sagen, dass man am Geschriebenen und Vervielfältigten den Gedanken bei der Weiterverbreitung zusehen kann – überhaupt hat der Begriff der Gedanken eine Doppelbedeutung: Gedanken sind einerseits das mediale Substrat des Bewusstseins, die Form der Verknüpfung von Sinn im Medium der bewussten Vorstellung der Welt und Verarbeitung von Sinn; Gedanken stehen aber auch in Büchern, sind gewissermaßen durch ihre Verbreitungs- und Speicherungsmöglichkeit Formen, die sich von jenen emanzipieren, die sie gedacht haben. Hochtrabende Diagnosen einer „Wissensgesellschaft“ sind unmittelbar an diese eigendynamische Form der Produktion, Distribution, Eigendynamik und Rückkopplung möglicher Information gekoppelt – in welcher konkret technischen Medialität das derzeit auftritt, was sich als „Buch“ im weitesten Sinne darstellt. Was dem Buch und dem verbreiteten Text übrigens kaum zu nehmen ist, ist seine Zurechnung auf einen Autor – Autorenschaft ist gewissermaßen das, was die Textlichkeit verbürgt und beglaubigt. Und die allfälligen Diagnosen vom „Tod des Autors“, wie wir sie von Roland Barthes und Michel Foucault kennen, können nur deswegen so auftrumpfen, weil der Autor so widerspenstig ist. Und die These hat selbst Autoren.
Die KI wird eine ähnliche katastrophale Medienumstellung gewesen sein. Sie wird die Genese von Wissen, von Information, von Entscheidungen, von Kategorien, von Rekombinationen von Wissen, von wahrheitsfähigen Sagbarkeiten, von Originalität und Replizierbarkeit, von Kontrolle und Kritik, von Steuerung und Beherrschbarkeit ändern, radikal ändern. Sie wird noch mehr als der Buchdruck enorme Skalierungsfähigkeiten in Abhängigkeit von Rechnerleistungen erzeugen. Sie wird die Kapitalakkumulation ebenso verändern wie die Bedingungen von Wertschöpfungsketten. Sie wird ein neues Publikum erzeugen und neue Routinen entstehen lassen. Und sie wird die Frage der Zurechenbarkeit von „Wissen“ völlig neu stellen, weil Texte bzw. Zeichenketten bzw. Sinnverweisungen nun keinen Autor im engeren Sinne mehr haben, mit dessen angeblichem Tod man ihn zum Helden machen kann. Das Medium wird subjektlos – das Ergebnis radikaler Selbstreferenz und sogar Intransparenz.
Und bevor ich nun hier weiter extemporiere und einige analytische Einschätzungen zur KI-Katastrophe zum Besten gebe, komme ich auf das, was ich eigentlich erzählen wollte – ich glaube nämlich, dass der Praxis der KI-Anwendung durchaus eine gewisse Ironie innewohnt. Ich weiß nicht, wem es schon aufgefallen ist – wer ChatgGPT verwendet und eine Frage stellt, muss einige Zeit warten, bis das Ergebnis erscheint. Die Zeit wird gebraucht, um Datenbanken zu durchsuchen, Kombinationen und Rekombinationen zu ordnen, Wahrscheinlichkeiten zu prüfen, eine Form der Präsentation zu generieren.
In allen Kommunikationsvorgängen ist die Pause, das Dazwischen zwischen kommunikativen Akten relevant – also die Zeit, in der kommunikativ nichts geschieht. Wenn ich jemanden frage, ob es regnet, dann wird der Zwischenzeit zwischen der Antwort „Ja“ oder „Nein“ oder „wahrscheinlich erst morgen“ ein gewisses Innenleben des Gegenübers unterstellt, vulgo: es wird eine Entscheidung getroffen, zwischen möglichen Antworten gewählt, nach der angemessenen Antwort gesucht, vielleicht der performative Sinn der Frage entschlüsselt – man unterstellt also Nachdenken, Bewusstseinstätigkeit, etwas Inneres, das man nicht direkt beobachten kann, nicht einmal, wenn man danach fragt, weil man es ja nur erfährt, indem der andere es dann sagt.
Je länger die Pause, desto mehr Nachdenkunterstellung – der frühe Soziologie George Herbert Mead nannte diese Phase die „Handlungshemmung“, in der ein Bedarf für Bewusstsein angezeigt wird. Und wir kennen das aus dem Alltag – die Gedanken der anderen bleiben unterstellte Notwendigkeiten, sind aber unerreichbar. Das (andere) Subjekt ist also nichts anderes als ein Zurechnungspunkt, von dem wir nur die äußere, die praktische, die sichtbare Hülle kennen.
Die Ironie von ChatGPT besteht darin, dass das System nach getaner Arbeit meldet „22 s nachgedacht“ – ich habe die ziemlich simple Frage gestellt, was denn eine Mercedes S-Klasse heute kostet (die Preise fangen bei 113.366 €). Die Handlungshemmung dauerte 22 Sekunden, und in ihr wurde, ganz nach Mead „nachgedacht“.
Ich nutze „ChatGPT 5“, und der besagte Test wurde mit der Basisversion erstellt. Nun habe ich „ChatGPT 5 Thinking“ bemüht und gefragt, was denn ein 7er BMW heute kostet (Preise fangen ähnlich dem Mercedes bei 118.400 € an, beide übrigens mit dem jeweils kleinsten Diesel). Die „Thinking“ Variante unterscheidet sich von der Basisversion nach Selbstauskunft des Herstellers darin, dass diese nicht nur wie jene mit einem „schlauen, effizienten Modell“ arbeitet, sondern mit „einem tiefergehenden schlussfolgernden Modell (GPT‑5 Thinking) für komplexere Probleme und einem Echtzeit-Router, der schnell entscheidet, welches Modell je nach Art des Gesprächs, der Komplexität, der benötigten Tools und deiner klaren Absicht verwendet wird – zum Beispiel, wenn du im Prompt sagst: ‚Denk gründlich darüber nach‘.“*
Die gestellte Frage war sehr simpel, so dass das volle Potential der „Thinking“-Variante nicht ausgeschöpft werden konnte – gewissermaßen als führe man S-Klasse oder 7er bei Tempo 80. Das Schöne an dieser Variante ist aber die ästhetische Ausgestaltung der Hemmungsphase zwischen dem Prompt und der Antwort. Und hier sagt das System „Denke nach…“. In der Basisversion ist es nur im Partizip Perfekt zu haben, nachträglich „nachgedacht“, hier wird in Echtzeit gedacht. Die Zeile sagt immerhin nicht „Ich denke nach“, aber sie impliziert es. Das KI-System überbrückt also die Zeit zwischen Prompt und Antwort durch die Ästhetisierung einer inneren, unbeobachtbaren Unendlichkeit, in der nachgedacht wird, will heißen: in der es einen Spielraum für bessere oder schlechtere Antworten gibt.
ChatGPT kommt also auf der Ebene seiner Benutzeroberfläche nicht ohne die Simulation eines Autors aus, wenn man so will, nicht ohne die vertrauensbildende Maßnahme des unterstellten Nachdenkens. Michel Foucault verstand den Autor nicht als Mensch aus Fleisch und Blut, sondern als eine Funktion, die erfüllt sein muss, damit der Text des Autors ein zurechenbares Gewicht bekommt und belastbar wird.
Es entbehrt tatsächlich nicht einer gewissen Ironie, dass OpenAI gewissermaßen aus der Dekonstruktion des Autors lernt, dass es eines Autors bedarf, um Kommunikation zu simulieren – dabei ist das ja nicht nur simulierte Kommunikation, sondern tatsächlich Kommunikation als das nicht-trivial und nicht-linear und nicht-kausal gekoppelte Nacheinander von Äußerungen. Beglaubigt wird es durch einen Ausdruck aus der Buchdruckwelt, die „Gedanken“ verbreitet – obwohl wir wissen, dass es (gedruckte) Sinnverweisungen gibt, die gar nicht explizit gedacht worden sein müssen und dass ein Large Language Model nicht denkt, sondern Zeichenketten nach Wahrscheinlichkeiten anordnet. Aber von diesem Wissen abstrahieren wir meistens, um die Dinge praktikabel zu machen.
Ob sich die OpenAI-Leute etwas dabei gedacht haben, weiß ich nicht. Aber das ist ja auch egal. Und vielleicht lassen sich solche Technologien in ihrer Kulturbedeutung und praktischen Form am besten an den unbesehenen, vielleicht auch unbedachten Kleinigkeiten verstehen und beurteilen. Für mich ist es die Unmaßgeblichkeit des „Denke nach…“ als automatisierter Form der Überbrückung von Zeit.
* Zu finden in deutscher Sprache auf der OpenAI-Homepage unter https://openai.com/de-DE/index/introducing-gpt-5/
Armin Nassehi, Montagsblock /338
25. August 2025