Montagsblock /246

Fast hat sich das ganze KI-Weltuntergangsgerede ja schon abgenutzt, nach diesem Jahr intensivster Auseinandersetzungen mit dem Risiken und Chancen der mächtigen generativen Sprachmodelle. Man hat fast alles schon gelesen, von Atomwaffenanalogien bis zu psychologischen Abhandlungen über unsere menschliche Tendenz zur Anthropomorphisierung aller auch nur entfernt als intelligente Akteure interpretierbarer Maschinen. Es gibt derzeit zudem wirklich genügend andere mindestens genauso beunruhigende Probleme in der Welt, Krisen die greifbarer und erschütternder sind als mögliche Entwicklungen einer Technologie, die sowieso kaum jemand wirklich versteht. Und gleichzeitig ist diese Aufmerksamkeitsverschiebung gefährlich, denn aktuell werden im Bereich der KI politische Weichen gestellt, die großen Einfluss darauf haben können, wie wir künftig leben.

Der AI Safety Summit, der vergangene Woche in Bletchley Park im britischen Buckinghamshire stattgefunden hat, hat die Diskussionen um die Sicherheit von KI und die notwendigen Strategien, um diese zu sichern, noch einmal stark angeheizt. Regulierung ist wichtig, da sind sich fast alle einig, genau wie globale Koordinierung in der Frage und fortwährende Evaluierung existierender Modelle und damit verbundener Gefahren. Aber wie das alles auszusehen hat, ist deutlich weniger klar. Besonders kontrovers ist dabei die Frage nach dem Umgang mit “Open Source”: Sollten die großen Sprachmodelle veröffentlicht werden? Wenn ja: In welchem Maße? Nur der Source-Code? Auch die Trainingsdaten? Und auch die Informationen, die Zugang zum trainierten Modell verschaffen, die Gewichte des neuronalen Netzes – und deren Generierung so große Rechen- und Datenkapazitäten benötigen, dass sie nur von wenigen Akteuren produziert werden können?

Die zugrundeliegende Frage dabei ist: Vergrößert Offenheit die Sicherheit, weil die ganze Welt sich an der Suche nach Sicherheitslücken beteiligen kann? Oder ist Offenheit vielmehr ein Sicherheitsrisiko, weil übelmeinenden Akteuren mit den Modellen ein mächtiges Manipulationswerkzeug geschenkt wird? Mit anderen Worten und abgebildet in Twitter-Rhetorik: “Since many AI doom scenarios sound like science fiction, let me ask this: Could the SkyNet take-over in Terminator have happened if SkyNet had been open source?” (Yann LeCun) versus “Let’s open source nuclear weapons too to make them safer. The good guys (us) will always have bigger ones than the bad guys (them) so it should all be OK.” (Geoffrey Hinton).

Die Frage bewegt die Community natürlich schon seit vielen Jahren. Das Unternehmen OpenAI, das die GPT-Modelle entwickelt, hatte sich ursprünglich Open-Source aus genau dem Grund auf die Fahnen geschrieben: Um durch volle Transparenz mögliche Sicherheitsrisiken zu minimieren. Das wurde bereits damals von Anhängern möglicher KI-Weltuntergangsszenarien wie Nick Bostrom scharf kritisiert. Nachdem ein Nonprofit-Ansatz aber nicht die gewünschten Resultate brachte, ist OpenAI mittlerweile auf Geheimhaltung umgestiegen – genau wie auch die anderen großen Player wie Google und Microsoft. Allein Meta mit Chefwissenschaftler Yan LeCun veröffentlichte im Februar den Code und die Gewichte des LLaMA-Modells, so dass Nutzer damit relativ leicht eigene Chatbots bauen konnten.

Yann LeCun ist nach wie vor eine der lautesten Stimmen in den Sozialen Medien, die einen Pro-Open-Source-Kurs verfechten, unter anderem auch um zu verhindern, dass nur die größten amerikanischen Unternehmen die mächtigen KI-Modelle kontrollieren. Dabei mag der Franzose auch durch seine europäische Herkunft geprägt sein. Die Open-Source-Bewegung ist vor allem hierzulande stark und kann einige eindrucksvolle Erfolge aufweisen. Laion ist in diesem Zusammenhang ein oft genanntes Projekt, das als gemeinnützige Organisation Datensätze, Tools und Modelle für maschinelles Lernen bereitstellt (und übrigens auch einen Nachteil der Transparenz erfahren hat: Durch die Offenheit der Datensätze waren Fotografen in der Lage, Klagen wegen der Nutzung ihrer Fotos für das Training von KI-Modellen einzureichen). Stable-Diffusion als verbreitete Open-Source-Software zur Generierung von Bildern mit Ursprung an der LMU München ist ein anderes oft genanntes.

Dass Open-Source hier in Europa so populär ist, mag neben der Tatsache, dass hier eben nicht die ganz großen KI-Unternehmen angesiedelt sind sondern viel in kleineren Firmen und im akademischen Umfeld passiert, daran liegen, dass hier die Sorge besonders groß ist, in fundamentale Abhängigkeiten von nicht-europäischen Monopolisten und Systemen zu geraten, deren Risiken man aufgrund von Intransparenz gar nicht einschätzen kann. Und: Vielleicht ist man hier doch noch stärker bereit, kommerzielle Interessen zugunsten von sicheren und gerechten KI-Werkzeugen zurückzustellen?

In Amerika zumindest hat die Open-Source-Bewegung nun ein neues Ultimatum bekommen. President Biden formulierte am 30. Oktober in seinem “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” unter anderem die Forderung, dass innerhalb von 270 Tagen geklärt werden solle, inwiefern die Veröffentlichung der Gewichte großer KI-Modelle weiterhin erlaubt sein soll, oder ob die damit verbundenen Risiken zu hoch sind. Außerdem wird vorgeschlagen, eine breite Klasse von KI-Modellen besser zu regulieren und zu kontrollieren.

Die Open-Source-Community reagierte schnell. In einem offenen Brief, der derzeit als Antwort auf das Schreiben an Präsident Biden kursiert, heben Wissenschaftler um Yan LeCun hervor, dass auf jeden Fall eine Monopol-Bildung im Bereich der KI verhindert werden müsse, zudem seien offene und transparente Lösungen nicht nur sicherer sondern auch erfolgreich. Das Internet sei dafür genauso ein Beispiel wie das verbreitete Betriebssystem Linux. Open-Source “garantiert, dass die Algorithmen, die unsere Gesellschaft prägen, transparent, nachvollziehbar und offen für Modifikationen durch eine diverse Gruppe von Individuen mit verschiedenen Einsichten und Fähigkeiten sind statt nur durch eine kleine elitäre Gruppe”, heißt es da. Die Förderung von Open-Source Modellen sei zudem wichtig, um akademische Forschung zu stärken, denn die ist ansonsten aufgrund geringerer Ressourcen nicht wettbewerbsfähig. Auch eine zu breite Forderung nach Regulierung läuft Gefahr, die Open-Source-Bewegung auszubremsen. Denn kleine Unternehmen und Start-Ups können komplexe bürokratische Anforderungen sehr viel schlechter erfüllen als große Unternehmen mit dem nötigen finanziellen Spielraum. Hier wäre also sehr viel mehr Differenzierung nötig als in Bidens “Executive Order” angelegt. Wie die Diskussion ausgeht, bleibt abzuwarten. Wie wichtig es ist, hier schon frühzeitig die richtigen Weichen zu stellen, sollte spätestens nach diesem Jahr mit seinen zahlreichen eindrucksvollen KI-Durchbrüchen aber allen klar sein.

Sibylle Anderl, Montagsblock /246

06. November 2023