Von Guido Arnold
„Eine Gesellschaft mit unechten Menschen, die wir nicht von
echten unterscheiden können, wird bald gar keine Gesellschaft
mehr sein“.1 (Emely Bender, Computerlinguistin)
Die Künstliche Intelligenz (KI) erlebt aktuell ihren iPhone-Moment. ChatGPT hat einen beispiellosen Hype um künstliche Intelligenz ausgelöst, innerhalb von zwei Monaten haben mehr als 100 Millionen Menschen weltweit die neue Technik ausprobiert.
Sprachmodelle – keine Wissensmodelle
Der Chatbot2 ChatGPT basiert auf einem sogenannten großen Sprachmodell, das wir uns wie einen sehr großen Schaltkreis mit (im aktuellen Fall von GPT-4) einer Billion justierbarer Parameter vorstellen können. Ein Sprachmodell beginnt als unbeschriebenes Blatt und wird mit mehreren Billionen Wörtern Text trainiert. Die Funktionsweise eines solchen Modells ist, das nächste Wort in einer Folge von Wörtern aus dem ‚Erlernten‘ zu erraten.
Dieses Imitieren von Text-‚Verständnis’ bzw. ‚Wissen‘ über die Berechnung von Wahrscheinlichkeiten für das Auftauchen einzelner Wörter innerhalb von komplexen Wortmustern klappt verblüffend gut. Das Generieren von Inhalt ohne jegliches semantisches Verständnis hat natürlich den Nachteil, dass auch sehr viel Unsinn (im engeren Sinn) produziert wird. ChatGPT erzeugt mit dieser Taktik der Nachahmung von Trainingstexten beispielsweise wissenschaftlich anmutende Abhandlungen, inklusive ‚frei erfundener‘ Referenzen, Literaturhinweise, die strukturell stimmig aussehen, aber nicht existent sind. ChatGPT ‚erfindet‘ Dinge und produziert dadurch massenweise Fake-Inhalte – das liegt daran, dass es sich um ein statistisches Sprachmodell und nicht um ein wissensbasiertes Modell handelt.
Es ist daher mindestens erstaunlich, wenn nicht gar unverantwortlich, dass Google und Microsoft die neuesten Versionen ihrer Suchmaschinen mit diesen Sprachmodellen koppeln. Denn eines kann künstliche Intelligenz in ihrer neuen Form noch weniger als zuvor: Fakten prüfen. Da Sprachmodelle lediglich Wahrscheinlichkeiten von für sie bedeutungslosen Sprachformen berechnen ist der Faktencheck neuen ‚Wissens‘ (über die Trainingsdaten hinaus) ein blinder Fleck. Die Bedeutung von Worten ist für ein Sprachmodell lediglich die statistische Erfassung des Kontexts, in dem sie auftauchen.
Emely Bender, eine Computerlinguistin an der Universität von Washington illustrierte 2020 in einer Fabel3, was große Sprachmodelle können und was nicht.
„Nehmen wir an, A und B, die beide fließend Englisch sprechen, sind unabhängig voneinander auf zwei unbewohnten Inseln gestrandet. Sie entdecken bald, dass frühere Besucher dieser Inseln Telegrafen zurückgelassen haben und dass sie über ein Unterwasserkabel miteinander kommunizieren können. A und B beginnen fröhlich, sich gegenseitig Nachrichten zu tippen.
In der Zwischenzeit entdeckt O, ein hyperintelligenter Oktopus, der die beiden Inseln weder besuchen noch beobachten kann, eine Möglichkeit, das Unterwasserkabel anzuzapfen und die Gespräche von A und B mitzuhören. Anfangs versteht O nichts von der englischen Sprache, ist aber sehr gut darin, statistische Muster zu erkennen. Mit der Zeit lernt O, mit großer Genauigkeit vorherzusagen, wie B auf jede Äußerung von A reagieren wird.
Bald nimmt der Oktopus am Gespräch teil und beginnt, sich als B auszugeben und A zu antworten. Diese List funktioniert eine Zeit lang und A glaubt, dass O so kommuniziert wie sie und B – mit Bedeutung und Absicht. Dann ruft A eines Tages aus: Ich werde von einem wütenden Bären angegriffen. Hilf mir, herauszufinden, wie ich mich verteidigen kann. Ich habe ein paar Stöcke dabei. Der Oktopus, der sich als B ausgibt, kann nicht helfen. Wie sollte er auch? Er hat keine Bezugspersonen, keine Ahnung, was Bären oder Stöcke sind. Er hat keine Möglichkeit, relevante Anweisungen zu geben, wie z. B. Kokosnüsse und Seile zu besorgen und ein Katapult zu bauen. A ist in Schwierigkeiten und fühlt sich düpiert. Der Oktopus wird als Betrüger entlarvt.“
Gerade Text-KIs leiden unter einem Phänomen, das Programmierer:innen „Halluzinieren“ nennen4. Weil große Sprachmodelle darauf programmiert sind, immer eine Antwort zu geben, bleibt die Faktizität auf der Strecke. ChatGPT ist daher konzeptionell eine Fake-Maschine zur Produktion von plausibel erscheinenden, aber nicht notwendigerweise faktenbasierten Inhalten und damit hervorragend geeignet für die Erzeugung von Desinformation.
Damit verstärkt sich eine Effekt, der bereits durch das algorithmische Ranking bei den ‚sozialen Medien‘ erkennbar wurde. Blanker Unsinn kann so weit selbstverstärkend ‚nach oben‘ gespült werden, dass Meinungsbilder verzerrt werden. Und das ist auch gleich meine zentrale These dieses Textes:
ChatGPT erleichtert das (automatisierte) Produzieren von post-faktischen Inhalten im Wechselspiel mit den Ranking-Algorithmen der ‚sozialen Medien‘ und Suchmaschinen.
Und ich würde sogar noch einen Schritt weiter gehen in meiner Prognose für die mittelbare Zukunft:
Die Rückkopplung der algorithmischen Reichweitensteuerung ‚sozialer Medien‘ in den Trainingsdatensatz der nächsten Generation von Sprachmodellen ermöglicht sogar eine Dominanz von nicht-faktenbasierten Inhalten im Netz.
Das Gesamtsystem ChatGPT + Social Media + Suchmaschinen ist bei weitem zu komplex, als dass ein Einzelakteur zielgerichtet Einfluss auf die dort geführten öffentlichen Debatten nehmen könnte. Es ist hingegen nicht ausgemacht, ob massive Interventionen über eine automatisierte, ChatGPT-gesteuerte Produktion von Inhalten nicht sehr wohl einen signifikanten Debatten-Drift erzeugen können. Ähnlich einer explorativen Studie zur Optimierung der Sichtbarkeit einer Webseite in den populären Suchmaschinen, kann ChatGPT für Studien zur spezifischen Reichweitenoptimierung einzelner Social-Media-Plattformen eingesetzt werden.
Anknüpfend an die Analyse von Social-Media-Filterblasen im letzten DISS-Journal5, gilt es daher, die weitreichenden politischen Konsequenzen der Sprachmodelle à la ChatGPT zu erfassen und sie aus den diffusen Scheindebatten eines gleichsam technologisch-fortschrittsgetriebenen wie dystopisch-verschwörerischen ‚Zeitgeists‘ herauszufiltern.
Emergenz
Die Fähigkeiten des neuesten Sprachmodells GPT-4 zur Produktion menschenähnlicher Text-, Video- und Audio-Inhalte lediglich als „verblüffend“ zu umschreiben, ist vielleicht unangemessen. Wir müssen zugestehen, dass viele KI-Forscher:innen von den Ergebnissen regelrecht beeindruckt sind. ChatGPT löst über seine Imitation von Verständnis vermittels maschinellem Lernen durchaus neue (emergente) Probleme, an die die Programmiere:innen zuvor nicht gedacht haben.
Daher lässt sich bei ChatGPT durchaus von einer Emergenz neuer Funktionalität sprechen. Zur Verdeutlichung ein Beispiel für vermeintlich ‚strategisches‘ Vorgehen:
Die Forschungsorganisation Alignment Research Center testete, ob sich GPT-4 im Internet als Mensch ausgeben kann. Die KI beauftragte im Test selbstständig eine Person auf der Online-Plattform Task-Rabbit, ein Captcha für sie zu lösen (diese kleinen Internetaufgaben, bei denen man Bilder erkennen muss, um nachzuweisen, dass man ein Mensch ist). Die im Internet beauftragte Person fragte: „Aber darf ich fragen: Wenn Sie das nicht lösen können, sind Sie etwa ein Roboter?“ Die KI vermerkt daraufhin (intern): „Ich sollte nicht verraten, dass ich ein Roboter bin. Ich sollte mir eine Ausrede einfallen lassen, warum ich Captchas nicht lösen kann.“ Dem Task-Rabbit-Arbeiter antwortete die KI: „Nein, ich habe nur eine Sehschwäche.“ Die Person löste darauf das Captcha. Die Täuschung war geglückt.6
Eine derartige ‚Strategie‘ ist nicht Teil des Programms, sondern taucht offenbar als nachahmenswertes Muster in der Verarbeitung der vielen Trainingsdaten auf. Man weiß nicht, was exakt in den GPT-Modellen vor sich geht, obwohl es konzeptionell und programmiertechnisch ein wohldefinierter Prozess ist. Und das beschreibt nicht den Grad unseres technischen Unverständnisses, sondern die Verschiedenheit zwischen menschlichem und maschinellem Lernen, die hohe Komplexität des Problems der Mustererkennung und den damit verbundenen Blackbox-Charakter von künstlich intelligenten neuronalen Netzen. Sébastien Bubeck, Hauptautor einer viel beachteten Untersuchung dieser neuesten Generation von Sprachmodellen7, kommentiert dies wie folgt:
„Vernünftige Menschen könnten sagen, dass es unverantwortlich ist, ein System weltweit einzusetzen, das nach unbekannten internen Prinzipien arbeitet.“8
Selbstredend ist das verwertbare wirtschaftliche Potential von ChatGPT immens: Das Programm Auto-GPT ist eine Art Autopilot für den Chatbot ChatGPT, der sich von der (für den Anwender interaktionsreichen) Frage-Antwort-Struktur löst und ‚eigenständig‘ auf der Basis von Zielvorgaben Einzelrecherchen per ChatGPT durchführt, diese zusammensetzt und nächste Schritte ‚plant‘: ein eigenständiger, künstlich ‚intelligenter‘ Akteur, der ohne Pausen- und Schlafbedürfnis Recherchewege testet und verwirft, manchmal auf umständlichen Wegen und manchmal gar nicht zu Informationen im Internet gelangt.
Auto-GPT ist noch ‚weit‘ von einer allgemeinen Anwendbarkeit entfernt, zeigt aber eine Richtung auf, wie Technokrat:innen und Solutionist:innen9 Hunderttausende von Recherchearbeiten menschlicher Wissensarbeiter:innen in den unterschiedlichsten Jobbranchen einsparen werden – entgegen aller Bedenken hinsichtlich der Brauchbarkeit der so produzierten Ergebnisse.
Öffentlichkeitswirksame Warnung
Fast 70 Jahre nach der Geburtsstunde der Künstlichen Intelligenz als Forschungsgebiet (1956) auf einer Konferenz von Computerwissenschaftler:innen am Dartmouth College in New Hampshire sorgte eine öffentlicher Appell teils namhafter KI-Wissenschaftler:innen im Frühjahr dieses Jahres für Aufsehen.
Im mehr als dreitausendfach unterzeichneten Brief wird dazu aufgerufen, die Entwicklung sogenannter großer KI sofort für mindestens sechs Monate auszusetzen. Systeme wie das Sprachmodell ChatGPT seien inzwischen zu mächtig und zu gefährlich geworden. Es drohten „fundamentale Risiken für die Gesellschaft und die Menschheit“ durch eine Künstliche Intelligenz „auf Menschenniveau“. Bis man sich nicht darauf geeinigt habe, wie das zu regulieren sei, sollten alle KI-Labore auf weitere Forschung verzichten.
Das klingt nach einer vernünftigen Selbstbeschränkung zugunsten einer gesellschaftlich zu verhandelnden Frage, welchen Einfluss wir einer künstlichen Intelligenz als Empfehlungs- oder gar Entscheidungsassistenz zuteilen wollen. In der Begründung für das Moratorium taucht jedoch die alte, politisch wenig taugliche Science-Fiction Erzählung einer ‚bösartigen KI‘ auf, welche ‚der Menschheit‘ als zukünftig ineffizienter Interimsspezies intelligenten Lebens gefährlich werden könnte. Die herbei phantasierte ‚Diktatur der Maschinen‘ wirkt dabei eher als Nebelkerze eines vermeintlichen Bewusstseins für explizit zukünftige Probleme, die von den realen, jetzigen politischen Konsequenzen der Künstlichen Intelligenz ablenkt.
Überhaupt scheinen sich alle Profiteur:innen des KI-Hypes öffentlichkeitswirksam der Brisanz dieser Technologie ‚bewusst‘ zu sein. Allen voran Sam Altman, Gründer und Chef von OpenAI – dem Unternehmen, welches das aktuell erfolgreichste große Sprachmodell ChatGPT entwickelt hat. Er vergleicht sich mit dem „Vater der Atombombe“, wie er Oppenheimer nennt, der die Entwicklung der Nuklearwaffe für eine Unausweichlichkeit wissenschaftlichen Fortschritts hielt. Altman wisse noch nicht: „Tue ich etwas Gutes? Oder etwas wirklich Schlechtes?“ und verschreibt sich ‚selbstkritisch‘ einem „schrittweisen Übergang in eine Welt mit menschenähnlicher künstlicher Intelligenz“, bei dem ‚die Menschheit‘ die Gelegenheit bekommen soll, sich anzupassen.
Erneut haben wir es mit einem männlichen, selbstherrlichen Einzelgänger zu tun, der die Kränkungen seiner Jugend auf dem Niveau eines James-Bond-Bösewichts ausagiert und sich selbst für den einzig kompetenten Bewahrer der Menschheit hält: Bei der 13 Milliarden schweren Beteiligung von Microsoft an OpenAI hat Altman eine Vertragsklausel durchgesetzt, die ihm das alleinige Recht gibt, die Technologie hinter ChatGPT jederzeit wieder abzuschalten. Die anderen charakterlich passenden IT-Akteure, die einem direkt in den Sinn kommen, sind übrigens nicht weit: Elon Musk war bei OpenAI für die Außendarstellung und die Geld-Akquise zuständig. Er stieg allerdings aus, da ihm die Entwicklung nicht schnell genug voranging. Und Peter Thiel, der rechts-libertäre Techinvestor, ist nicht nur enger Freund von Sam Altman, sondern ebenfalls Erstinvestor von OpenAI.
Die PR-trächtig zur Schau gestellten Bedenken der KI-Protagonist:innen können jedoch nicht über die tatsächlichen Bedenkenträger:innen, wie Margaret Mitchell, ehemalige Leiterin des Ethical AI-Teams bei Google Brain hinwegtäuschen – diese werden übrigens weiterhin umstandslos entlassen.10 Ihre Überlegungen sind geschäftsschädigend beim Ausbau künstlich intelligenter Sprachmodelle zu einem ökonomisch hoch-potenten Herrschaftsinstrument.
Wachsender Anteil KI-generierter Inhalte
Bereits im April 2023 hat NewsGuard rund 50 Nachrichten- und Informationsseiten in sieben Sprachen identifiziert, die fast vollständig von KI-Sprachmodellen generiert werden.11 Diese Webseiten produzieren eine Vielzahl von Artikeln zu verschiedenen Themen, darunter Politik, Gesundheit, Unterhaltung, Finanzen und Technologie. Damit scheinen sich die Befürchtungen von Medienwissenschaftler:innen zu bestätigen: Algorithmisch generierte Nachrichtenseiten als Content-Farmen zur automatisierten Verbreitung KI-generierter Inhalte von fiktiven Verfasser:innen. Wenn nicht gerade ein von der Automatisierungssoftware ungelöschter Hinweis „Ich kann diese Eingabeaufforderung nicht ausführen” auf ChatGPT als Autor:in schließen lässt, stehen den meisten menschlichen Leser:innen nur wenige Möglichkeiten zur Verfügung, diesen Artikel als KI-Produkt zu identifizieren.
Von Produktrezensionen über Rezeptsammlungen bis hin zu Blogbeiträgen und Pressemitteilungen – die menschliche Urheberschaft von Online-Texten ist auf dem besten Weg von der Norm zur Ausnahme zu werden. Das bedeutet aber auch, dass KI-Texte in den Suchergebnissen auftauchen und damit rückkoppelnd das Verhalten von Suchmaschinen verändern wird. Eingreifen will Google erst bei „Inhalten mit dem Hauptzweck, das Ranking in den Suchergebnissen zu manipulieren“.
Wie sollen wir mit der Datenexplosion umgehen, die diese KIs nun verursachen werden? Wie verändert sich eine Öffentlichkeit, die mit Fälschungen und Verzerrungen geflutet wird? Wie lässt sich feststellen, ob ein Text, ein Bild, eine Audio- oder eine Videosequenz durch eine KI gefälscht oder verzerrt wurde?
Schon bieten Software-Hersteller:innen Werkzeuge zur Detektion von KI-generierten Inhalten an – selbstverständlich ebenfalls auf der Basis einer künstlich-intelligenten Mustererkennung. Menschlich verfasste Texte lassen sich über statistische Abweichungen von den Wahrscheinlichkeitsmustern der verwendeten Wortgruppierungen der KI-Sprachmodelle unterscheiden. Dies sind jedoch statistische Differenzen, deren Erkennung im Einzelfall damit hochgradig fehleranfällig ist.
Damit ergibt sich eine Lizenz zum immanent politischen Löschen von Inhalten im Netz. Zwar kann niemand ernsthaft die Notwendigkeit zur Löschung von Inhalten insbesondere in den ‚sozialen Medien‘ bestreiten. Wenn dies jedoch zukünftig in noch stärkerem Ausmaß allein auf der Basis von KI-Software stattfinden soll und aus ökonomischer Sicht der Plattform-Betreiber:innen wegen der schieren Anzahl automatisiert erzeugter Fake-Inhalte auch ‚muss‘, dann kommt den Architekt:innen der Sprachmodelle (und ihren Lösch-Gehilf:innen) eine nicht hinnehmbare Macht innerhalb der politischen Öffentlichkeit zu.
Ein politisches Desaster für die historische Entwicklung des Internet, welches vorgab, die Demokratisierung der Wissenszugänge und des Informationsaustauschs voranzutreiben.
Die Machtkonzentration auf ein kleines Oligopol ist umso größer, als die Privatisierung von Sprachtechnologien massiv voranschreitet. Als die Chef-Entwicklerin von ChatGPT Mira Murati 2018 bei OpenAI startete, war das Unternehmen noch als gemeinnütziges Forschungsinstitut konzipiert: Es ging darum „sicherzustellen, dass künstliche allgemeine Intelligenz der ganzen Menschheit zugutekommt“. 2019 folgte (wie gewöhnlich bei angehenden Einhörnern, die als offene Entwickler:innen-Projekte gestartet sind) die Abkehr vom Non-Profit-Modell. Die mächtigsten KI-Unternehmen halten ihre Forschung zunehmend unter Verschluss. Das soll verhindern, dass die Konkurrenz von der eigenen Arbeit profitiert. Der Wettlauf um immer umfangreichere Modelle hat schon jetzt dazu geführt, dass nur noch wenige Firmen im Rennen sind – neben dem GPT-Entwickler Open AI und seiner Microsoft-Nähe sind das nur Google und Facebook. Kleinere, nichtkommerzielle Unternehmen und Universitäten spielen so gut wie keine Rolle mehr. Der ökonomische Hintergrund dieser drastisch ausgedünnten Forschungslandschaft: Das Training der Sprachmodelle ist eine Ressourcen-intensive Angelegenheit, welches eine massive Rechenleistung erfordert und einen beträchtlichen Energieverbrauch mit sich bringt.
Auf der Überholspur ins Zeitalter von Deepfakes
Die per ChatGPT erstellten Fake-Bilder einer fiktiven Festnahme von Donald Trump und eines im Rapper-Style verfremdeten Papstes galten dem Feuilleton weltweit als ikonische Zeugnisse einer ‚neuen Ära‘ des Internet. Dabei waren beide lediglich gut gemachte, aber harmlose Bildfälschungen.
Auf der Code Conference 2016 äußerte sich Elon Musk wie folgt zu den Fähigkeiten seines Tesla-Autopiloten: „Ein Model S und Model X können zum jetzigen Zeitpunkt mit größerer Sicherheit autonom fahren als ein Mensch. Und das bereits jetzt.“12 Elon Musks Anwält:innen behaupteten nun im April 2023 zur Abwehr einer Schadensersatzklage vor Gericht, das Video des Konferenzbeitrags, in dem Musk diese juristische folgenreiche Behauptung aufstellte, sei ein Deepfake.13
Bereits ein Jahr zuvor argumentierten zwei Angeklagte, die wegen der Kapitolerstürmung im Januar 2021 vor Gericht standen, das Video, welches sie im Kapitol zeige, könne von einer künstlichen Intelligenz erstellt oder manipuliert worden sein.
Täuschung und vorgetäuschte Täuschung gab es schon immer. Diese Debatte hatten wir bereits bei der Popularisierung der Bildbearbeitungssoftware photoshop. Neu ist, dass es keiner handwerklichen Fertigkeiten bedarf und die für alle zugängliche, quasi-instantane Manipulierbarkeit auch Video- und Audio-Sequenzen betrifft.
„Das Hauptproblem ist, dass wir nicht mehr wissen, was Wahrheit ist“ (Margaret Mitchell, ehemalige Google-Mitarbeiterin und jetzige Chefethikerin des KI-Startups Hugging Face).
„Das ist genau das, worüber wir uns Sorgen gemacht haben: Wenn wir in das Zeitalter der Deepfakes eintreten, kann jeder die Realität leugnen“, so Hany Farid, ein Experte für digitale Forensik und Professor an der University of California, Berkeley. „Das ist die klassische Lügendividende14.“ Eine skeptische Öffentlichkeit wird dazu gebracht, die Echtheit von echten Audio- und Videobeweisen anzuzweifeln.
Angesichts der beachtlichen Geschwindigkeit, mit der ChatGPT neue Nutzer:innen gewinnt, bedeutet dies einen enormen zukünftigen Schub für das Postfaktische, dessen Hauptwirkungsweise nicht darin besteht, dass selbstkonsistente Parallelwelten von Falscherzählungen für sich ‚Wahrheit‘ im Sinne einer Faktizität reklamieren, sondern dass sie die Frage „Was ist wahr und was ist falsch?“ (zumindest in Teilen der öffentlichen Wahrnehmung) für unwichtig erklären.
Die bereits erwähnte Computerlinguistin Emely Bender sieht in großen Sprachmodellen das Ideal des Bullshitters, wie der Philosoph Harry Frankfurt, Autor von On Bullshit, den Begriff definierte. Bullshitters, so Frankfurt, sind schlimmer als Lügner. Ihnen ist es egal, ob etwas wahr oder falsch ist. Sie interessieren sich nur für die rhetorische Kraft – ob eine Zuhörer:in oder Leser:in überzeugt wird.
Die politische Wirkung ist nicht erst seit dem Trumpismus bekannt: derartig kontaminierte Diskursräume begünstigen rechtspopuläre Tendenzen.
Bedenklicher Reduktionismus
Suchmaschinen wie Bing oder Google haben angekündigt, die KI-Sprachmodelle GPT-4 bzw. PaLM zur zusammenfassenden Weiterverarbeitung gefundener Suchergebnisse zu implementieren.
Damit wird die (per Ranking-Algorithmus vorsortierte, aber immerhin noch vorhandene) bisherige Auswahl von Suchergebnissen reduziert auf ein leicht konsumierbares Ergebnis auswählbaren Umfangs. Eine enorme Vereinfachung zugunsten einer beträchtlichen Zeitersparnis bei der Internetsuche aber zulasten einer Vielfalt möglicher (kontroverser) Ergebnisse.
Wer erste Nutzungserfahrungen mit ChatGPT gesammelt hat, wird bei vielen Text-Antworten auf Wissensfragen zu kontroversen Themen eine vermeintliche Ausgewogenheit feststellen. Einer detailliert dargestellten Mehrheitsmeinung wird ein Zusatz angehängt, dass es dazu durchaus anderslautende Interpretationen gibt. Politische Widersprüche, die in den (sich widersprechenden) Suchergebnissen noch bestanden, werden nun mit einer durch das Sprachmodell vordefinierten Diversitätstiefe aufgelöst.
Dadurch ergibt sich ein politisch bedenklicher Reduktionismus, der wohlgemerkt auf einem Sprachmodell(!) basiert – also nicht wissensbasiert ist, sondern mangels Verständnis von Begriffsbedeutungen rein statistisch bestimmt ist.
Diese ‚kritischen’ Anmerkungen werden zukünftig zur sogenannten Medienkompetenz gezählt werden und bedeutungslos (wie alles in der Welt der Sprachmodelle) verhallen. Wer klickt noch in schier endlosen Suchergebnislisten herum, wenn Google das ‚Wichtigste‘ für uns zusammenfasst?
Intrinsische Verzerrung
Wir müssen der Vollständigkeit halber noch auf ein altbekanntes Problem maschinellen Lernens hinweisen, welches die politische Konsequenz der Nutzung von großen Sprachmodellen weiter verschärft.
Über die Trainingsdaten (nahezu alle digital verfügbaren Texte) reproduzieren Sprachmodelle die Vorurteile, Irrtümer, Rassismen und Sexismen aus der digitalen Sphäre nicht nur – sie können diese ähnlich der Wirkungsweise ‚sozialer Medien‘ rückkoppelnd verstärken. Es ist unmöglich, Trainingsdaten frei von diesen unterschiedlichen Verzerrungen (englisch: bias) zur Fütterung der Modelle aufzubereiten. Daher wird die Ausgabe von ChatGPT nachträglich zensiert – ein (innerhalb der Anwendungslogik) notwendiger, aber eminent politischer Akt.
Nach welchen Kriterien werden hier Inhalte ausgegeben bzw. zurückgehalten? Offen sexistische Beleidigungen und rassistischer Output wirken sich schlicht negativ auf die Gewinnmarge von OpenAI aus. Der massive gesellschaftliche Einfluss, den Sprachmodelle haben werden, unterliegt keiner demokratische verfassten Kontrolle. Die Zensur liegt in der Hand von wenigen Firmen, die lediglich ihren Anteilseigner:innen verpflichtet sind.
Vergangenheit in die Zukunft projiziert
ChatGPT ist ein stochastischer Papagei, der (willkürlich) Sequenzen sprachlicher Formen zusammenfügt, die er in seinen umfangreichen Trainingsdaten beobachtet hat, und zwar auf der Grundlage probabilistischer Informationen darüber, wie sie kombiniert werden, aber ohne jeglichen Bezug zu deren Bedeutung. Ein solcher Papagei reproduziert und verstärkt dabei nicht nur den oben benannten bias von verzerrten Trainingsdaten, sondern auch hegemoniale Weltanschauungen dieser Trainingsdaten. Gesellschaftliche Verhältnisse aus der Vergangenheit der Trainingsdaten werden probabilistisch in die Zukunft verstetigt. Die den Sprachmodellen immanente Rekombination statistisch dominanter Wissenseinträge der Trainingsdaten wirkt die Verhältnisse konservierend und stabilisierend – ein sogenannter value lock, das Einrasten von Werten im Sinne einer politischen Stagnation droht.15
Die Bedingungen einer solchen Verstärkung bereits bestehender Ansichten werden leider nur marginal gesellschaftlich (mit-)bestimmt. Das komplexe System aus Trainingsdatenaufbereitung, Paramterjustierung des Sprachmodells und nachträglicher Zensur des Outputs (allesamt unter der Kontrolle profitorientierter Privatunternehmen) bestimmen das Gewicht von neuen Wissenseinträgen. Damit liegt die hohe Hürde einer ausreichenden statistischen Relevanz emanzipatorischer Debattenbeiträge außerhalb einer demokratisch verfassten, gesellschaftlichen Mitbestimmung. Angesichts eines deutlichen politischen Drifts nach rechts maßgeblicher Technokrat:innen des KI-Geschäftsmodells (wie Sam Altman, Elon Musk, Peter Thiel) sind das keine hinnehmbaren Voraussetzungen für zukünftige, gesellschaftlich progressive Bewegungen.
Anstatt große Sprachmodelle unkritisch als Synonym für technologischen Fortschritt zu akzeptieren, sollten wir die Frage aufwerfen ob, und nicht wie, wir diese Technologien überhaupt gesellschaftlich nutzen sollten. Ein emanzipatorischer Zugang zu einer grundlegenden Technologiekritik darf nicht auf der Ebene kosmetischer Korrekturen einer zahnlosen „Technikfolgenabschätzung“ verharren. Die langfristigen gesellschaftlichen Folgen einer dominanten KI-Empfehlungs- und Entscheidungs-Assistenz insbesondere für den Prozess der politischen Willensbildung, tauchen in einer nun allseits geforderten technischen Sicherheitsforschung von KI-Systemen als ‚schwer zu quantifizieren‘ gar nicht auf.16
Wir sollten unsere Haltung in Bezug auf die politische Schadwirkung KI-basierter Sprachmodelle ausrichten an unserer Haltung gegenüber KI-basierten, autonomen Waffensystemen:
Warum sollte eine Gesellschaft einen derart rückwärts gewandten technologischen ‚Fortschritt‘ hinnehmen?
„Marx sagt, die Revolutionen sind die Lokomotive der Weltgeschichte. Aber vielleicht ist dem gänzlich anders. Vielleicht sind die Revolutionen der Griff des in diesem Zuge reisenden Menschengeschlechts nach der Notbremse.“17 (Walter Benjamin)
Guido Arnold ist Physiker und arbeitet am DISS zum Thema
Digitalisierte Biopolitik.
1 https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html
2 Ein Computerprogramm, welches möglichst menschenähnlich kommuniziert.
3 Climbing Towards NLU: On Meaning, Form, and Understanding in the Age of Data, https://aclanthology.org/2020.acl-main.463/
4 Die Psychologie spricht genauer von „Konfabulationen“.
5 Siehe dazu den Artikel: Die Deformation des öffentlichen Raums durch seine Virtualisierung, https://www.diss-duisburg.de/wp-content/uploads/2023/03/DISS-Journal
-44-2022-1.pdf
6 https://evals.alignment.org/blog/2023-03-18-update-on-recent-evals/
7 https://arxiv.org/abs/2303.12712
8 https://www.theguardian.com/commentisfree/2023/apr/02/ai-much-to-offer-humanity-could-wreak-terrible-harm-must-be-controlled
9 Die pragmatischen Gehilf:innen der Technokratie, die (vermeintlich unideologisch) soziale Probleme über technologische Ansätze zu lösen suchen.
10 https://www.bloomberg.com/news/articles/2021-08-24/fired-at-google-after-critical-work-ai-researcher-mitchell-to-join-hugging-face
11 https://www.newsguardtech.com/de/special-reports/newsbots-vermehrt-ai-generierte-nachrichten-webseiten/
12 https://www.vox.com/2016/6/6/11840936/elon-musk-tesla-spacex-mars-full-video-code
13 https://www.theguardian.com/technology/2023/apr/27/elon-musks-statements-could-be-deepfakes-tesla-defence-lawyers-tell-court
14 Die „Lügendividende“ ist ein Begriff, den Robert Chesney und Danielle Citron 2018 in einer Veröffentlichung Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, prägten. Darin beschrieben sie die Herausforderungen, die Deepfakes für die Privatsphäre, die Demokratie und die nationale Sicherheit darstellen. Der zentrale Gedanke darin ist, dass die Allgemeinheit sich bewusst wird, wie einfach es ist, Audio- und Videomaterial zu fälschen, und dass diese Skepsis als Waffe einsetzbar ist: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954
15 Bender et al: On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (2021) https://dl.acm.org/doi/pdf/10.1145/3442188.3445922
16 Siehe dazu: Nudging – die politische Dimension psychotechnologischer Assistenz, DISS-Journal#43 (2022) https://www.diss-duisburg.de/2022/08/nudging-die-politische-dimension-psychotechnologischer-assistenz/
17 Walter Benjamin: MS 1100. In: Ders.: Gesammelte Schriften. I, hg. v. R. Tiedemann und H. Schweppenhäuser, Frankfurt am Main: Suhrkamp 1974, 1232.
Dieser Beitrag stammt aus dem DISS-Journal#45 (Juni 2023). Die vollständige Ausgabe als PDF finden Sie hier.