Montagsblock /325

Einerseits war da schon so etwas wie ein kleines bisschen Stolz, als ich endlich die E-Mail im Posteingang hatte „Einspruch gegen die Verwendung deiner Informationen für KI bei Meta“, in der mir versprochen wurde, meine öffentlichen Informationen von Instagram und Facebook nicht an die Meta-KI zu verfüttern. Nicht nur deshalb, weil ich sonst dazu neige, Deadlines für nicht ganz dringende Bürokratiedinge zu vergessen, sondern auch, weil es sich gut anfühlt, selbstbestimmt einem großen Technologiekonzern die Grenzen aufzuzeigen. Andererseits musste ich mir dann doch schnell eingestehen, dass allein aufgrund meiner journalistischen Tätigkeit vermutlich ohnehin schon so große Mengen meiner Daten in das Training von KI-Modellen eingeflossen sind, dass dieser Schritt gegenüber Meta doch eher symbolischen Wert haben dürfte.

Dass Meta nun auch Nutzerdaten für das Training verwenden will, macht ein weiteres Mal deutlich, wie wichtig die Verfügbarkeit menschlicher Daten für die aktuellen generativen KI-Modelle ist. Und man kann schon die Panik erahnen, dass diese Daten knapp werden, insbesondere wenn das Internet zunehmend mit KI-generierten Daten geflutet wird und die Qualität verfügbarer Trainingsdaten insgesamt entsprechend abnimmt.

Für Technologiepessimisten könnte das tröstlich sein: Der Intelligenz der aktuellen KI-Modelle könnte so eine natürliche Grenze gesetzt sein. Irgendwann sind die verfügbaren hochwertigen Daten erschöpft, dann wird die KI im schlimmsten Fall sogar wieder blöder.

So einfach ist es allerdings nicht. KI-Entwickler haben diese Limitation natürlich im Blick und denken schon darüber hinaus. So haben der britische Informatiker David Silver und sein Doktorvater, der diesjährige Gewinner des renommierten Turing Awards Richard S. Sutton, im vergangenen Monat einen Artikel veröffentlicht, in dem sie eine neue KI-Ära jenseits der Grenzen menschengenerierter Daten ausrufen: „Welcome to the Era of Experience“. Sie schlagen darin vor, aus der Datennot eine Tugend zu machen: Der menschliche Fingerabdruck, den die aktuellen Large Language Models (LLMs) aus ihren Trainingsdaten erhalten, bremse ohnehin den Fortschritt dieser Modelle. Daher brauche man eine neue Datenquelle. Die Idee ist, den Menschen künftig als Datenspender zu umgehen, und der KI eine direkte Erfahrung ihrer Umwelt zu ermöglichen, auf deren Grundlage sie dann zu ihren eigenen Schlüssen und Lernerfolgen kommen kann. Nur so könne man auf neue Einsichten hoffen, die außerhalb der Grenzen des menschlichen Verständnisses lägen, schreiben die Autoren.

Dass das funktioniert, kann man bereits an Systemen sehen, die sich selbst trainieren. Alpha Zero brachte sich das Brettspiel Go einzig auf Grundlage der Spielregeln durch Spielen gegen sich selbst bei und wurde innerhalb kürzester Zeit nicht nur besser als alle Konkurrenten. Es entwickelte auch neue Strategien, die über bis dahin existierende menschliche Strategien hinausreichten. Auch in der Mathematik schlagen sich künstliche Intelligenzen bei der Entwicklung neuer Beweise besser, wenn sie selbstständig mit anderen KIs kooperieren, die die Beweise auf Korrektheit prüfen, als wenn sie sich an menschlichen Prinzipien orientieren.

Das waren bisher allerdings noch klar limitierte Anwendungsfälle. Wenn man das Konzept auf KI mit allgemeinerem Anwendungspotential verallgemeinern will, stellt sich die Frage, welche Form von Erfahrungsdaten hier nutzbar wäre. Silver und Sutton haben hier KI-Agenten vor Augen, die genügend autonom agieren können, um selbstständig alle Aktionen an Computern auszuführen, zu denen wir Menschen auch in der Lage sind: Im Internet surfen, Programme starten, aber auch Sensordaten angeschlossener Messgeräte, vielleicht sogar die von Weitem steuerbarer Teleskope, auswerten.

Das würde ihnen einen „Erfahrungsstrom“ liefern, der über die kurzen Interaktionssequenzen hinausgeht, die wir aktuell mit LLMs praktizieren. Nur so könnten auch längerfristig Ziele verfolgt werden, schreiben die Autoren. Zudem könnten KI-Agenten auf diese Weise selbst mit der Umwelt experimentieren und Zusammenhänge zwischen Aktionen und deren Wirkungen erschließen: etwa wenn sie den Auftrag haben, die Gesundheit des Nutzers zu verbessern, und sie den Effekt der vorgeschlagenen Fitnessübungen direkt anhand der Daten der Smartwatch kontrollieren können. So könnten sie sich auch selbst ein dynamisches Bild davon machen, ob ihre Zielsetzungen funktionieren oder vielleicht angepasst werden müssen. Ihre maschinelle Rationalität könnte dabei ganz neue Wege erschließen – denn es sei keineswegs gesagt, dass die menschliche Art zu denken die optimale sei, geben die Autoren zu bedenken.

Das klingt alles wahnsinnig faszinierend. Und gleichzeitig ist erschreckend, wie stark hier die Annahme in Erscheinung tritt, alles Menschliche sei im Wesentlichen fehlerbehaftet im Vergleich mit „objektiven“ maschinell generierten Daten. Die Tatsache, dass Daten wertlos sind, wenn sie unzutreffend interpretiert werden – eine Tätigkeit, die ihrerseits sehr viel explizites und implizites Wissen voraussetzt – wird nicht einmal thematisiert. Und noch etwas ist besorgniserregend: Das Kommunikationsmedium der menschlichen Sprache, das in den LLMs genutzt wird, ermöglicht es zumindest zu einem gewissen Grad, nachzuvollziehen, was die KI genau macht und wie sie zu ihren Ergebnissen kommt. Sobald man das aufgibt, muss man blind vertrauen, dass die Maschinen schon wissen, was sie tun – jenseits der Grenzen dessen, was wir Menschen verstehen können.

Nun wird nicht alles funktionieren, was man sich theoretisch ausdenkt. Man sieht das bereits daran, wie schwer sich die Entwickler damit tun, mithilfe von KI Roboter zu autonomem Handeln zu befähigen. Gleichzeitig ging in der Entwicklung von KI in den vergangenen Jahren vieles aber auch deutlich schneller als man dachte. Für mich zumindest klingt es wie keine gute Idee, die KI vom Menschen abzukoppeln. Und da muss ich dann doch sogar zugeben: Im Vergleich wäre es mir fast noch lieber, ein paar Daten zu spenden, als einer Zukunft einflussreicher KIs entgegenzusehen, die sich selbst auf undurchschaubare Art ihre unverständliche Weltsicht zusammenfügen.

Sibylle Anderl, Montagsblock /325

26. Mai 2025