Wenn man derzeit von Frankfurt nach Hamburg fährt, dann merkt man erstmal, wie groß Deutschland wirklich ist. Auf allen Skalen gewissermaßen. Schon Frankfurt ist erstaunlich groß, wenn die U-Bahnlinie wegen Bauarbeiten nicht fährt und man stattdessen die Tram nehmen muss. Die Deutsche Bahn wiederum lässt sich derzeit aufgrund zwei großer Baustellen ganz besonders viel Zeit. Viel Grün da draußen, vorher nie gesehene Wiesen, lange Aufenthalte auf den Bahnhöfen. Die rote Linie, die das Fortkommen unseres Zuges auf dem Bildschirm über dem Gang repräsentiert, vollzieht so seltsame Zacken statt aufeinanderfolgende Bahnhöfe einfach gerade zu verbinden, dass man besser gar nicht hinschaut. Allein die dramatischen Wolkenformationen am Horizont entschädigen ein wenig, die hätte man bei einer kürzeren Zugfahrt vielleicht übersehen. Wenn man direkt und konzentriert das KI-Paper gelesen hätte, das schon eine Weile einen der zahlreichen offenen Tabs im Browser füllt. Stattdessen aus dem Fenster schauen und plötzlich an ein Interview mit kanadischen Journalistenkollegen vor einer Woche denken.
Brauchen wir noch Journalisten, wenn wir immer bessere KI haben? Das wurde ich von ihnen gefragt. Journalismus hat viel mit Vertrauen zu tun, sagte ich daraufhin. Es geht schließlich darum, Dinge richtig einzuordnen und wiederzugeben, gründlich und unvoreingenommen zu recherchieren, ohne Fehler und manipulative Absichten. Dieses Vertrauen können wir sehr viel einfacher Menschen entgegenbringen, die wir vielleicht schon einmal irgendwo persönlich erleben konnten. Deren Vita wir grundsätzlich kennen. Die bestimmten Standards verpflichtet sind und die vielleicht auch eingebettet sind in ein für seine besonderen Qualitätsansprüche bekanntes Umfeld, wie ein traditionsreiches Medienhaus (wobei es natürlich nicht für alle gilt, dass solche Faktoren für ihn oder sie vertrauensfördernd wirken). Bei einer KI ist es dagegen weitgehend intransparent, wie sie trainiert wurde, unter welchen Biases sie leidet, ob sie halluziniert oder den vorliegenden Evidenzen gemäß antwortet.
Der andere Punkt, den ich anbrachte, war dass die KI in absehbarer Zukunft keine eigenen Erfahrungen der Welt machen wird. Wo Journalisten dorthin fahren können, wo etwas passiert, wo sie Menschen treffen und befragen, wo Journalisten subjektiv ihre Eindrücke schildern können, kommt die KI an ihre Grenzen. Wie es jetzt gerade am europäischen Kernfusionsreaktor-Experiment aussieht und wie dort die Stimmung ist, kann mir und den Lesern mein Kollege erzählen, weil er gerade dorthin gefahren ist. Wie die Situation an Forschungseinrichtungen in Israel ist, erfahre ich zusammen mit den Lesern von meiner vor einigen Tagen aus Israel zurückgekehrten Kollegin. ChatGPT weiß das alles nicht. Auch nicht, wie unendlich lang es gerade dauert, wenn man momentan von Hamburg Richtung Süden fahren will. Journalismus lebt von subjektiven Erfahrungen (Montagsblöcke vielleicht auch). Anders als die Wissenschaft, die nach objektiv gültigen Aussagen strebt.
Naiv könnte man entsprechend aber denken, dass sich in der Wissenschaft die Limitierung der KI in eine Stärke wandelt: Wenn die KI zum Forscher wird – in vielen Fächern ist das bereits Realität – werden wir alle menschlich-subjektiven Einschränkungen los. Klar, wir kennen die verschiedenen Arten von KI-Bias, aber wenn sie in großen Datensätzen bestimmte Muster findet und daraus Gesetzmäßigkeiten ableitet, muss das ja eigentlich bessere Ergebnisse liefern, als wenn man dafür einen gestressten Doktoranden einsetzt. Oder nicht?
Das KI-Paper, die “Nature”-Perspektive in meinem Browser, das ich nun mittlerweile nach meiner Wolkenbewunderung gelesen habe, greift diese Frage auf. Die Anthropologin Lisa Messeri von der Universität Yale und die Psychologin Molly Crockett aus Princeton warnen darin, dass der Einsatz von KI in der Forschung dazu verleiten kann, das mit ihrer Hilfe erreichte Verständnis der Welt zu überschätzen. Dabei betrachten sie den Einsatz der KI beim Lesen von Studien (Oracle), beim Erzeugen von Daten (Surrogate), bei der Vorbereitung und Analyse von Daten (Quant) und bei der Begutachtung (Arbiter). Unter den verschiedenen Argumenten, die sie dort bringen, erscheint mir in diesem Zusammenhang besonders eines anregend.
Wissenschaftliche Objektivität beruht demnach zentral auf Diversität, auf einer Vielfalt von Perspektiven. Die kann sich zum einen aus verschiedenen Lebensläufen, Hintergründen und Erfahrungen der Wissenschaftler ergeben. Andererseits aus kognitiver Vielfalt: aus unterschiedlichen Ausbildungswegen, methodischen Präferenzen, Problemlösungsstrategien. Denn auch Forschung ist notwendigerweise immer durch die Subjektivität ihrer Forscher betroffen, die an vielen Stellen des Forschungsprozesses Entscheidungen treffen müssen, die nicht klar durch das herrschende wissenschaftliche Paradigma vorgegeben sind. Solche Entscheidungen werden auf der Grundlage aktueller Überzeugungen und Präferenzen getroffen. Sie sind in diesem Sinne nicht objektiv zu rechtfertigen. Das ist aber dann nicht schlimm, wenn sich diese Subjektivitäten durch eine möglichst diverse Forschungscommunity gewissermaßen aufheben. Die Autorinnen nennen das derart Erreichte “Starke Objektivität” in Abgrenzung zur schwachen Objektivität, von der man in der Wissenschaftsgeschichte lange dachte, sie würde sich automatisch durch die wissenschaftliche Methode einstellen – selbst wenn diese nur von gut situierten weißen Männern durchgeführt wurde. Forschender Künstlicher Intelligenz fehlt aber diese Diversität. Sie implementiert die Standpunkte ihrer Schöpfer beziehungsweise der sozialen Mehrheitsgruppen. Anders als man denken könnte, erreicht man durch den Einsatz von KI also keine stärkere Objektivität als in menschlicher Forschung sondern verliert sie im Gegenteil.
Dieses Argument kann man natürlich auch auf den Journalismus anwenden. Denn sich der Vielfalt der Perspektiven auszusetzen, der Vielfalt verschiedener Wertungen und Schwerpunktsetzungen die sich aus variierenden Herkünften und Prägungen ergibt, ist heute wichtiger denn je, wenn man sich ein zutreffendes “objektives” Bild der Welt machen will. Vielleicht wird also die Verbreitung der KI im Journalismus dazu führen, dass noch mehr Formenvielfalt, mehr Individualität gefragt ist. Dass Artikel weniger austauschbar wirken, nicht mehr alle das Gleiche über Hafermilch und Fremdgehen schreiben, weil die Artikel beim Konkurrenten gerade gut klicken – was heute zu einer Vielfalt ähnlicher Artikel führt, die eine KI mindestens genauso gut geschrieben hätte. Würden die Leser das zu schätzen wissen? Wir werden sehen. Allerdings nicht mehr heute. Denn es ist schon dunkel geworden. Und der Zug ist wider Erwarten tatsächlich bald am Ziel.
Sibylle Anderl, Montagsblock /266
25. März 2024