Neulich habe ich Edward Harcourt kennengelernt. Er ist Philosophieprofessor in Oxford und beschäftigt sich mit der Ethik von KI. In dem Interview, das ich mit ihm geführt habe, ging es um unsere zunehmende Bereitschaft, sich mit Chatbots zu unterhalten, als wären es gute Freunde, Therapeuten oder sogar Liebhaber. Es ist faszinierend, wie schnell sich hier die Maßstäbe darüber verschoben haben, was wir für normal halten. Noch vor wenigen Monaten hatte ich das intensive private Plaudern mit dem Bot als seltenes Phänomen bei verrückten Amerikanern eingeordnet (auch weil ich über die Chatbot-Beziehungen zuerst in amerikanischen Zeitungen gelesen hatte). Aber mittlerweile begegnen mir immer mehr Menschen in meinem direkten Umfeld, die ChatGPT als Ratgeber in verzwickten Lebenslagen zitieren – von Erziehungsfragen bis zu Tipps, wie man am besten mit dem Ex umgehen sollte.
Edward Harcourt jedenfalls reflektiert diesen Trend sehr kritisch. Denn obwohl es sich genauso anfühlt, als würden wir mit einem Menschen sprechen, fehle unserem Gegenüber schließlich das, was uns Menschen einzigartig macht, sagt er. Zunächst klang das für mich wie ein unplausibles Argument. Denn der Chatbot funktioniert schließlich so, dass er genau das antwortet, was ein Mensch antworten würde. Wenn ich nicht unterscheiden kann, ob die Antworten von einem Menschen getippt werden oder von einem Algorithmus generiert – warum sollte es für mich einen Unterschied ergeben? Harcourt aber erklärte mir den Unterschied daraufhin etwas näher mit der Aufzählung, dass Chatbots insbesondere keine Bedürfnisse haben: Sie haben keine Zeitnot, sind nicht ungeduldig, nicht schlecht gelaunt. Sie sind genauso, wie wir uns einen Gesprächspartner optimalerweise wünschen würden. Ohne alle menschlichen Unzulänglichkeiten, ohne Ecken und Kanten.
Damit geht einher, dass unsere Gesprächshaltung ihnen gegenüber rein instrumentell ist. Sie befriedigen unser Bedürfnis, jemanden zum Reden zu haben, der uns versteht, uns nicht stärker kritisch hinterfragt, als es noch angenehm ist. Harcourts Analogie: Sie sind in Bezug auf unser Bedürfnis nach Austausch, was Pornos in Bezug auf unser Bedürfnis nach sexueller Befriedigung sind. Nur mit dem Unterschied, dass es bei Pornos sehr viel offensichtlicher ist, dass es sich hier um eine Beziehung handelt, die sich fundamental von dem unterscheidet, was wir im normalen Umgang mit anderen Menschen zu erwarten haben. Wenn wir uns aber durch den Gebrauch von Chatbots an eine derart instrumentelle Sicht gewöhnen, dass wir sie auch auf andere Menschen übertragen, wäre das eine katastrophale Entwicklung für unsere Fähigkeit, miteinander umzugehen. Wir würden einander nur noch als Mittel sehen, nicht, wie es sich für beim Umgang mit einem Menschen nach Kant gehört, als Zweck an sich.
Diese Erklärung leuchtete mir sehr ein. Und ich musste neulich in einem ganz anderen Kontext an dieses Argument denken, der sehr drastisch vor Augen führte, wie richtig Harcourt mit diesem Punkt liegen könnte.
Seit der letzten großen Veröffentlichung der Epstein-Files gingen mein Team und ich der Frage nach, warum so viele Wissenschaftler in diesen Dokumenten auftauchen. Dabei fanden wir, dass Epstein ein Jahr Research Fellow an der Universität Harvard war. Richtig weit scheint er mit seiner Forschung in diesem Jahr nicht gekommen zu sein. Es ist aber interessant, woran er seinem Forschungsantrag gemäß hätte arbeiten wollte: Es ging dabei um das Konzept „sozialer Prothesen“, das der Psychologe Stephen Kosslyn entwickelt hat. Unter sozialen Prothesen versteht er Menschen, die man dafür nutzt, eigene Defizite emotionaler oder kognitiver Art auszugleichen – so wie man eine Prothese nutzt, wenn einem das Bein amputiert wurde. Auf diese Weise kann man, so Kosslyn, das eigene Selbst auf andere ausdehnen. Ein anderer Mensch wird als soziale Prothese auf diese Weise dauerhaft zu einem Verhalten gebracht, das dem Prothesenträger hilft. Was dabei passiert, erklärt Kosslyn mit der Metapher einer Werkzeugkiste: Langfristig existierende soziale Prothesen seien „wie Werkzeuge in einer Kiste. Sobald man sie hat, stehen sie dafür zur Verfügung, in den passenden Umständen genutzt zu werden.“
Menschen als jederzeit nutzbare Werkzeuge – das ist das instrumentelle Bild, vor dem Harcourt warnt, auf die Spitze getrieben. Es ist ein Ansatz, der dem Netzwerker und Sexualverbrecher Epstein offenbar nahe lag. Dafür spricht auch, dass Kosslyn ihm am Ende des Aufsatzes ausgiebig dankt: „Ich hätte nie so lange über diese Dinge nachgedacht, wenn mich Jeffrey Epstein nicht so ausdauernd und erkenntnisreich dazu gedrängt hätte.“ Man sieht: Es braucht keine Chatbots, um eine unmenschlich-instrumentelle Sicht auf die Welt zu entwickeln. Aber warum es gefährlich und unter keinen Umständen wünschenswert ist, wenn so eine Sicht sich durchsetzt, zeigt dieser Fund deutlich.
Sibylle Anderl, Montagsblock /363
23. Februar 2025