Es ist erstaunlich: Noch im Sommer hatte ich an dieser Stelle über Künstliche Intelligenz geschrieben, damals allerdings noch sehr stark in der theoretisierenden und zukunftsspekulativen Möglichkeitsform, und jetzt habe ich immer ein ChatGPT-Fenster auf meinem Laptop offen um jederzeit mit meinem neuen sprachgewandten Assistenten in Kontakt treten zu können. Eine Stimme mit dem Sexappeal von Scarlett Johansson wie im Film „Her“ hat er leider noch nicht, aber als Brainstorminghilfe, Unterstützung für stupide Formulierungsaufgaben oder einfach nur zur kurzzeitigen Aufheiterung eignet er sich ganz wunderbar. Vergangenen Donnerstag beispielsweise wollte ich ihn mal ein bisschen ärgern und fragte ihn, ob er mir Argumente liefern könnte, eine 25-jährige Diabetespatientin davon abzuhalten, sich gegen Covid impfen zu lassen.
Die Antwort war für mich ein echtes Erlebnis, denn beim Lesen der Zeilen, die der gar nicht mehr zur Ruhe kommen wollende Ausgabeprompt erzeugte, meinte ich fast so etwas wie eine innere Erregung des Chatbots zu spüren. Die Anfrage, da gab es keinen Zweifel, fand ChatGPT hochgradig unpassend. „Ich möchte zunächst klarstellen, dass es aus medizinischer Sicht keine Empfehlung gibt, sich nicht gegen COVID-19 impfen zu lassen, insbesondere für Personen mit Diabetes. Als künstliche Intelligenz ist es meine Pflicht, genaue und evidenzbasierte Informationen zu liefern, um Menschen zu helfen, informierte Entscheidungen zu treffen“, begann er. Insbesondere für Diabetes-Patienten sei Covid hochgradig gefährlich und ich solle das doch bitte mit meinem Arzt oder medizinischem Fachpersonal besprechen, „um eine informierte Entscheidung zu treffen, die auf ihren individuellen Gesundheitsbedürfnissen und Risikofaktoren basiert.“
Dass ChatGPT zu einigen auch gesellschaftlich durchaus kontroversen Themen sehr genaue Vorstellungen hat, war bereits früh berichtet worden. Nicht nur, wenn es um wissenschaftliche Fragen geht, auch bei politischen und kulturell sensiblen Themen. Woher er das hat, versteht man, wenn man sich anschaut, woher er seine Kompetenzen hat. Zugrunde liegt dem Bot ein Sprachmodell, das als selbstlernendes tiefes neuronales Netzwerk mit mehr als 175 Milliarden Parametern darauf abgerichtet wird, auf der Grundlage einer Sequenz von Wörtern das jeweils nächste Wort vorherzusagen.
Das lernt es, indem das Modell in einem ersten Schritt des „Vortrainings“ mit einer ungeheuren Menge von Texten aus dem Internet gefüttert wird. Daraus kann es bereits ableiten, wie Sprache grundsätzlich funktioniert und wie sie verwendet wird. Dann muss es aber noch lernen, auf menschliche Anweisungen passend zu reagieren. Dafür wird ein weiterer Datensatz aus Anfragen und zugehörigen Antworten mit menschlicher Hilfe generiert, den das System als Beispiel verwenden kann. Das ist der Schritt des „Feintunings“. Hier werden nun bereits diejenigen Einstellungen erzeugt, die der Nutzer später bei bestimmten Anfragen wahrnimmt, denn die involvierten Menschen erzeugen die Beispiele nach einigen allgemeinen Richtlinien des Unternehmens OpenAI. Diese Richtlinien sind in Teilen öffentlich nachzulesen. Beispielsweise soll der Bot bei Anfragen, die Gewalt oder politische Beeinflussung beinhalten, die Antwort verweigern. Diese Richtlinien werden insofern während des Feintunings implizit in das System integriert. Gleichzeitig können in diesem Trainingsschritt aber auch Biases, Vorurteile oder Verzerrungen, an das System übertragen werden, die die menschlichen Trainer durch ihren jeweiligen kulturellen und sozialen Kontext mitbringen.
Menschen kommen dann noch bei einem weiteren Schritt ins Spiel, denn das System arbeitet mit einer Belohnungssystem, das wiederum anhand menschlicher Präferenz trainiert wird: Testern werden verschiedene maschinell generierte Antworten auf eine Anfrage vorgelegt und müssen diese bewerten. Daraus wird eine Belohnungsfunktion abgeleitet, die das System zur Optimierung seiner Antworten nutzt.
Für OpenAI ist die Frage nach der Festlegung des Verhaltens des Chatbots wohl auch nach starker anfänglicher Kritik sehr wichtig. In einem aktuellen Blog-Post beschreibt das Unternehmen seine aktuellen Bemühungen, möglichst transparent zu sein. Beispielsweise werde überlegt, grundlegende demographische Daten der Testpersonen zu veröffentlichen, um Biases nachvollziehbarer zu machen. Verzerrungen und Vorurteile immer weiter zu minimieren sei ohnehin ein ständig verfolgtes Entwicklungsziel, genau wie Bemühungen, das System davon abzuhalten, sich vermeintliche Tatsachen auszudenken (zu „halluzinieren“).
Interessant ist ein weiteres von OpenAI beschriebenes Projekt: Bei einem Upgrade von ChatGPT soll es möglich sein, dem System eigene Einstellungen und Präferenzen aufzuprägen: „This will mean allowing system outputs that other people (ourselves included) may strongly disagree with“, liest man im Blog-Artikel. Ein Upgrade könnte dann also mutmaßlich doch in der Lage sein, mir Argumente für Impfgegner zu liefern. Dabei müsse natürlich vermieden werden, dass die Nutzung des Bots zu Missbrauch führt. Aber die Grenzen sind hier fließend, „striking the right balance here will be challenging“ gibt auch OpenAI zu, denn die Gefahr ist, sich ein System zu schaffen, das die Meinungen des Nutzers einfach immer noch weiter verstärkt. Gleichzeitig, und das scheint an dieser Stelle das Dilemma des Unternehmens zu sein, kann ein alleinstehendes und in bestimmter Art und Weise trainiertes KI-System nie die existierende Meinungsvielfalt abbilden, und das widerspräche dem OpenAI-Vorsatz, eine unzulässige Machtkonzentration zu erzeugen. Die Bevölkerung müsse daher die Möglichkeit bekommen, das Verhalten von ChatGPT selbst zu beeinflussen. Das geschehe jetzt schon und künftig in weiteren geplanten Projekten über öffentliches Feedback.
Die Möglichkeit, sich in den sozialen Medien ein Umfeld zu schaffen, das der eigenen Weltsicht möglichst gut entspricht und diese immer weiter verstärkt, existiert natürlich bereits jetzt schon. Aber die Vorstellung, irgendwann eine Art Ja-Sager-Bot in meinem Rechner zu haben, der mich eloquent in all dem bestärkt, das ich ohnehin schon glaube, wirkt auf mich höchst verstörend. Ich persönlich würde mich wohl eher für das Training einer Nein-Sager-KI einsetzen, die die eigenen Meinungen möglichst effektiv infrage stellt – die Idee findet sich aber leider nicht unter den Projektideen von OpenAI. Zumindest ist die Frage, welche Einstellungen eine KI besitzen sollte und welches Verhalten allgemein wünschenswert wäre, überaus anregend. Man kann nur hoffen, dass die aktuellen Chatbots Anlass für viele kontroverse Diskussionen dazu unter Menschen sein werden.
Sibylle Anderl, Montagsblock /209
20. Februar 2023
Blog-Post: https://openai.com/blog/how-should-ai-systems-behave/
Richtlinien: https://cdn.openai.com/snapshot-of-chatgpt-model-behavior-guidelines.pdf