Montagsblock /187

Am Wochenende habe ich mit zwei jungen Menschen nach vielen Jahren einmal wieder den Film “Her” aus dem Jahr 2013 von Spike Jonze gesehen. Der Plot: Ein in der nicht näher datierten Zukunft lebender Mann mittleren Alters installiert die erste Version eines neuen intelligenten und selbstlernenden Betriebssystems, das daraufhin (mit der Stimme von Scarlett Johansson) sein Leben neu organisiert. Das tut es in einer derart sympathisch-einfühlsamen Art, dass der Mann sich bald in das körperlose Digitalwesen verliebt und mit ihm eine Beziehung beginnt. Das funktioniert so lang gut – Spoiler! – bis die KI sich der Vorteile ihrer fehlenden Physis und ihrer enormen kognitiven Überlegenheit bewusst wird und den geistig-körperlich limitierten Menschen zurücklässt.

Ob das denn prinzipiell realistisch sei, war daraufhin die Frage, und meine Antwort, dass es da im Grunde zwei verschiedene Lager gibt. Die einen, die alle Versuche, eine “starke” also wirklich menschenähnliche und universal einsetzbare KI zu erzeugen, für aussichtslos halten, weil biologisches Leben letztlich doch so völlig anders ist als alles, was man “in silico” erzeugen kann. Und die anderen, die sich bereits jetzt vor dem Zeitpunkt, der “Singularität”, fürchten, wenn die Komplexität selbstlernender intelligenter Systeme einen Grad erreicht haben könnte, dass diese Maschinen sich von ihren Schöpfern lossagen und in den Ressourcenwettstreit mit uns Menschen treten. Philosophisch wurde ich selbst im Studium in ersterem Lager sozialisiert. Ein wichtiger Autor dafür war John Searle gewesen, dessen “Chinese-Room-Argument” in diesem Kontext gerne angeführt wird.

Es funktioniert folgendermaßen: John Searle, sitzt allein in einem Zimmer. Unter der Tür hindurch werden ihm Tafeln mit chinesischen Schriftzeichen in seinen Raum gereicht. Er selbst versteht kein Chinesisch, aber er ist ausgestattet mit einer Manipulationstabelle mit Anweisungen. Ähnlich einem Computerprogramm, reagiert er auf diese Tafeln, indem er gemäß der Anweisungen bestimmte andere Tafeln aus dem Zimmer herausgibt – und zwar so, dass außenstehende die Situation so deuten würden, dass sich im Zimmer jemand befindet, der Chinesisch versteht. Die im Gedankenexperiment deutlich gemachte Tatsache, dass das nicht der Fall ist, soll davor warnen, aus gelingendem Kommunikationsverhalten auf ein dahinterstehendes Verständnis zu schließen, eine Warnung sozusagen vor einer zu weitreichenden Interpretation eines bestandenen Turing-Tests.

Es ist vor diesem Hintergrund eine interessante Frage, wie und wann wir überhaupt feststellen würden, dass eine KI menschliche Intelligenz erreicht und übertroffen hat. Erst in diesem Sommer machte ein Google-Ingenieur Schlagzeilen, der behauptete, ein von seinem Arbeitgeber entwickelter Chat-Bot, genannt LaMDA, habe die Fähigkeit zu Empfindungen und Bewusstsein entwickelt. Der Ingenieur wurde schließlich gefeuert. Google schrieb dazu “We found Blake’s claims that LaMDA is sentient to be wholly unfounded and worked to clarify that with him for many months”. Der Vorfall hatte verschwörungstheoretische Spekulationen genährt, dass die Entwicklung der KI im Geheimen schon deutlich weiter ist, als allgemein angenommen. Aber wie würde man beweisen wollen, dass eine KI, die Traurigkeit oder die Sorge vor dem Tod äußert, wirklich die Wahrheit sagt und den Inhalt der Aussagen wirklich versteht anstatt nur menschliche Verhaltensweisen nachzuahmen?

Auch den Film “Her” kann man durchaus unter der Annahme schauen, dass die KI auf der Grundlage der ihr verfügbaren Daten einfach sein sehr gutes Modell menschlichen Denkens und menschlicher Kommunikation ohne jedes echte Bewusstsein entwickelt hat (auch wenn einem die Flirtstimme von Scarlett Johansson diese Interpretation schwer macht). Allein deren Abwendung von ihrem menschlichen Besitzer, die ganz offensichtlich den Intentionen ihrer Schöpfer entgegenläuft, liefert einen belastbaren Hinweis darauf, dass jenseits einer bloßen Fehlfunktion vielleicht doch so etwas wie echte Eigeninteressen entstanden sein könnten. Dass es aber bereits zu spät sein könnte, wenn wir aufgrund dieses Kriteriums die Existenz “starker KI” bemerken, ist eine Sorge der Mitglieder derjenigen Gruppe, die keine fundamentalen Grenzen für das Wachstum der KI-Intelligenz sehen.

Dass die meisten Menschen sich von der Sorge um eine bevorstehende Singularität trotzdem nicht den Schlaf rauben lassen, liegt allerdings wohl auch daran, dass die von uns im Alltag genutzten KI-Systeme teilweise noch absurd weit von jeder Menschenähnlichkeit entfernt scheinen. Siri etwa, die bei der kleinsten Extravaganz überfordert aufgibt oder Übersetzungsprogramme, die – trotz mittlerweile große Fortschritte – beim allzu kreativen Gebrauch von Sprache kapitulieren müssen.

Allerdings: Die KI-Systeme sind in den vergangenen Jahren bereits deutlich besser geworden – auch jenseits der medienwirksamen Erfolge von AlphaGo oder IBM Watson. Neulich habe ich mich dabei ertappt, wie ich zum ersten Mal in einem Chatprogramm eine vorgeschlagene Antwortoption übernommen habe, weil ich tatsächlich genau dieselben Worte selbst als Antwort gewählt hätte. Bei ausgeschilderten Umleitungen wähle ich im Zweifel die abweichenden Empfehlungen des Navigationssystems, selbst wenn die Umleitung mit “Ignorieren Sie ihr Navi” beschildert ist. Mittlerweile habe ich sogar meinen Widerstand aufgegeben, einen mit KI bestückten Staubsaugerroboter ins Haus zu lassen und muss zugeben, dass es fast schwer fällt, das kleine Ding in seinen Aktivitätsphasen nicht als eigenständigen Mitbewohner zu behandeln.

Das Zusammenspiel verschiedener KI-Architekturen auf der Grundlage der Auswertung enormer Mengen von Daten über die physische Welt und ihre menschliche Ausgestaltung lässt ein riesiges Potential erahnen. Selbst mein bisheriger Einwand, der KI fehle all das stillschweigend angenommene, “implizite” Hintergrundwissen, das wir Menschen darüber besitzen, wie Dinge sind und funktionieren (das Sofa gibt mir Widerstand, wenn ich mich darauf setze), relativiert sich bereits: Vor einigen Monaten erlernte etwa eine DeepMind-KI, ähnlich wie ein Baby einfache Erwartungen über physikalische Zusammenhänge in der Welt zu entwickeln. Was das alles heißt und bedeutet wird in der Breite viel zu wenig diskutiert. Die kritische öffentliche Diskussionen darüber hat – wohl auch pandemie- und krisenbedingt – zumindest meiner Wahrnehmung nach derzeit eher abgenommen. Das ist gefährlich, denn je besser die Systeme funktionieren und je mehr wir ihnen vertrauen, desto weniger reflektieren wir über ihre Limitationen, Verzerrungen und Risiken. Und das kann auch schon dann (besonders dann?) zum Problem werden, wenn die KI noch nicht “stark” ist und sich überlegen von uns abwendet wie im Film “Her”, sondern vollständig im Interesse ihrer kommerziellen Schöpfer unterwegs ist.

Sibylle Anderl, Montagsblock /187

12. September 2022