Montagsblock /215

Nach einer Abendveranstaltung in der vergangenen Woche stand schließlich noch eine Frau an der Bühne. “Darf ich Ihnen noch eine vielleicht etwas ungewöhnliche Frage stellen, die mich aber schon lang beschäftigt”, sagte sie. Es ginge ihr um den Begriff der Information. Es komme ihr so vor, als sei der in der Physik nicht wirklich klar definiert. Als Beispiel nannte sie zwei Computerfestplatten, eine gefüllt mit Informationen, eine leere. Aber wenn es keinen Menschen gebe, der die Festplatten auswerten könnte, wüsste man doch gar nicht, auf welcher der beiden nun Informationen stünden und auf welcher nicht.

Während wir bereits aus dem Saal gescheucht wurden, versuchte ich, die Physik gegen ihren Vorwurf der begrifflichen Unklarheit zu verteidigen. Aber überzeugen konnte ich sie nicht, was vermutlich einerseits daran lag, dass ich nach dem langen Abend nicht mehr sonderlich gut erklären konnte. Andererseits aber auch daran, dass es letztendlich stimmt: Der Informationsbegriff ist schwierig und an vielen Stellen unklarer, als man erwarten würde. Claude Shannon, Vater der Informationstheorie, hatte bereits 1950 festgestellt, es sei kaum zu erwarten, dass ein einziger Informationsbegriff zufriedenstellend die vielen möglichen Anwendungen im allgemeinen Feld der Theorie abdecken könne, und diese Einschätzung erwies sich als durchaus zutreffend. Heute bezeichnet man als Information oft die abstrakte Menge an Daten, Text oder Programmcode, die irgendwo gespeichert oder manipuliert wird — meist ohne die Bedeutung des Begriffes gründlich zu reflektieren.

Dabei scheint erstmal klar zu sein, womit man arbeiten muss, wenn man Information als etwas vom Menschen Unabhängiges verstehen will: In der Welt gibt es bestehende Zusammenhänge zwischen Ereignissen, Regularitäten und Muster, die es ermöglichen, aus bestimmten Beobachtungen der Umgebung etwas über Gegebenheiten an anderen Stellen ableiten zu können. Wenn ich höre, dass die Sicherung im Badezimmer herausspringt, kann ich daraus schließen, dass es stark regnet, weil ich weiß, dass dann Feuchtigkeit durch das Dach kommt. Das “Klack” der Sicherung trägt so eine Information über das aktuelle Wetter. Aus dem Kamin steigender Rauch trägt die Information, dass die Nachbarn heizen.

Die klassische Informationstheorie nach Shannon — und andere Ansätze, beispielsweise von Kolmogorov — liefern auf dieser Grundlage mathematische Werkzeuge, um auszurechnen, wie groß die übermittelte Informationsmenge ist. Sie bietet ein quantitatives Maß für Information, die anhand eines Signals von einer Quelle zu einem Empfänger übertragen wird und letzteren in die Position versetzt, aus dem Signal die Information über das Vorliegen eines bestimmten Ereignisses an der Quelle zu extrahieren. Wie viel Information das Signal dabei durchschnittlich transportiert, hängt von der Wahrscheinlichkeitsverteilung der Ereignisse an der Quelle ab — oder vereinfacht gesagt, davon, wie überraschend das Ereignis ist: Je größer die Überraschung, desto informativer das Signal (an dieser Stelle steckt auch die Brücke zum Konzept der Entropie, die vereinfacht als Maß der Unordnung verstanden werden kann und damit ebenfalls etwas über die Wahrscheinlichkeit eines Zustandes aussagt). Eine neue Information reduziert unsere Unsicherheit.

Mit dieser Beobachtung ist aber noch nichts über den Informationsgehalt gesagt, darüber also, was der Inhalt der Information ist. Der Philosoph Fred Dretske hat 1981 in seinem Buch “Knowledge and the Flow of Information” versucht, den Informationsbegriff in einem semantischen Sinne zu erweitern. Das macht er anhand bedingter Wahrscheinlichkeiten: Ein Signal r trägt demnach die Information “s ist F”, wenn die bedingte Wahrscheinlichkeit für das F-sein von s bei Vorliegen des Signals (zusammen mit einem bestimmten Vorwissen) den Wert 1 besitzt — heißt: Ein Signal trägt die Information, dass ein Ereignis eingetreten ist, wenn der Schluss aus dem Signal auf dieses Ereignis mit Sicherheit wahr ist.

Man muss an dieser Stelle gar nicht weiter in die Details der verschiedenen Ansätze zum Verständnis des Informationsbegriffes gehen, um festzustellen, wo mögliche Probleme stecken. Denn die Festlegung von Wahrscheinlichkeiten und die Abhängigkeit von bestimmtem Vorwissen lassen es zweifelhaft erscheinen, dass diese Herangehensweise tatsächlich vollständig von uns Menschen — oder zumindest von einem welterkundenden Wesen — unabhängig ist. Und ich vermute, dass es genau diese Verwirrung war, die der Frage meiner Vortragsbesucherin zugrunde lag. Sie beschreibt genau die von ihr geäußerte Intuition, dass die Unterscheidung der beiden Computerfestplatten “jemanden” erfordert, der schon etwas über deren allgemeine Funktionsweise weiß.

Diese Verwirrung ist insbesondere dann interessant, wenn man den Informationsbegriff dafür nutzen will, die Funktionsweise des menschlichen Gehirns zu verstehen, wie es beispielsweise wiederum Fred Dretske versucht hat. Denn wenn der Informationsbegriff tatsächlich von etwas Mentalem abhängt, das die Welt begrifflich einteilt und ein Vorwissen besitzt, kann er seinerseits dem Mentalem nicht zugrundegelegt werden. Fred Dretske versucht die Welteinteilung in Ereignisse und den Aufbau von Vorwissen evolutionär und behavioristisch zu erklären. Grob skizziert: Wie die Welt strukturiert wird, hängt von den Bedürfnissen und den Interaktionen des strukturierenden Systems ab, aber nicht zuerst von dessen mentaler Verfasstheit. Der Zirkelschluss wäre so vermieden. Wenn dieser Ansatz funktioniert, könnte tatsächlich Information als Grundlage des Mentalen dienen.

Dass diese Überlegung wiederum derzeit spannender denn je ist, muss vermutlich nicht extra festgestellt werden. Denn die Frage, ob Künstliche Intelligenz irgendwann einmal zu echter Intelligenz werden könnte, die uns Menschen in den Schatten stellt und von uns gänzlich unabhängig in einem wirklichen Sinn die Welt versteht, hängt damit offensichtlich zusammen. Da ihr bislang aber noch die Möglichkeit der Interaktion mit der realen Welt fehlt, erscheint es mir zumindest als ausgeschlossen, dass sich starke KI als emergentes Phänomen aus immer weiter vergrößerten Sprachmodellen entwickeln könnte. Wie die Antwort für multisensorische mit ihrer Umwelt interagierende Systeme ausfiele, finde ich schwieriger zu beantworten. Schade nur, dass es vergangene Woche schon zu spät war, um all das noch mit der Vortragsbesucherin zu diskutieren.

Sibylle Anderl, Montagsblock /215

03. April 2023