Bullshitting 2024

  • Lesedauer:30 min Lesezeit

Demokratiezersetzende Normalisierung des Postfaktischen

Von Guido Arnold

Die derzeitige Stärke autoritärer und rechtspopulistischer Strömungen weltweit fällt zusammen mit einer wachsenden Verunsicherung durch multiple Krisen (Klimazerstörung, Krieg, unaufgearbeitete Pandemie, …) und einem massiven Bedeutungszuwachs ‚sozialer‘ Medien innerhalb der letzten fünf Jahre.

Wir beschreiben mehrere, sich gegenseitig verstärkende Wirkmechanismen der Krisenhaftigkeit und einer algorithmischen Debatten-Polarisierung innerhalb ‚sozialer‘ Medien im Kontext der US-Präsidentschaftswahlen des Jahres 2024. Wie verändern große Sprachmodelle wie ChatGPT die politische Topologie des digitalen Informationsraums? Konkret gilt es zu untersuchen, wie das Wechselspiel von ChatGPT mit ‚sozialen‘ Medien die Normalisierung von Falschinformationen vorantreibt und wie rechter Populismus von eben dieser Zersetzung der Faktizität in ein polarisiertes Nebeneinander bloßer ‚Meinungen‘ auch über die ‚sozialen‘ Medien hinaus profitiert.

Lügen haben längere & schnellere Beine − rechter Populismus profitiert

Die Algorithmen zur Steuerung der spezifischen Reichweite innerhalb der ‚sozialen‘ Medien bevorzugen polarisierende Inhalte. Hass, Hetze und Angst erzielen darüber deutlich höhere Reichweiten und Verbreitungsgeschwindigkeiten − ebenso Fakenews, also Beiträge, die fahrlässig inhaltlich falsch (Misinformation) oder gar absichtlich irreführend bzw. unwahr (Desinformation) sind.

Das liegt in der Logik des Geschäftsmodells digitaler Plattformen, deren Währung die Interaktionsdauer und -geschwindigkeit ihrer Nutzer:innen sind. Je stärker die Nutzer:in überrascht, geschockt, empört oder anderweitig emotional involviert ist, desto länger und intensiver konsumiert und produziert sie Inhalte. Dabei fallen ökonomisch verwertbare persönliche Daten an, die sich nicht nur indirekt vermarkten lassen. Ganz unmittelbar kann der Plattformbetreiber seinen Werbepartnern zusätzlich zur höheren Verweildauer auch eine zielgenauere Adressierbarkeit der Nutzer:in in Rechnung stellen.

Zusätzlich zur algorithmischen Verstärkung profitieren Rechtspopulisten auch selbstverstärkend von Hass, Hetze, Angst und Falschnachrichten (der ‚sozialen‘ Medien). Inhalte, die spalten, verunsichern und destabilisieren, befeuern auch ‚quasi-analog‘ eine weitere Polarisierung bei der Meinungsbildung. Der Halt gebende Rückzug auf vermeintliche ‚Klarheiten‘ führt das Meinungsspektrum zusätzlich eng. Je verunsicherter die Meinungsträger:innen, desto fortgeschrittener der Reduktionismus. Das Sagbarkeitsfeld im öffentlichen Diskurs zerfällt auf einen engen Nahbereich um wenige Pole. Das ist die Zeit der Populisten, in der sich Wirklichkeit leicht reduzieren und verklären lässt.

Die 2024 in Deutschland geführte Debatte um die Höhe des Bürgergelds spiegelt diese populistisch-reduktionistische Polarisierung wider. Hier wurde der berechtigte Anspruch von 5,5 Millionen Empfänger:innen dieser Basisunterstützung für Erwerbslose durch eine (sozial-)mediale Hetze gegen 14.000 sogenannte „Totalverweigerer“ mit Verweis auf einen angeblich „überbordenden“ Sozialhaushalt in der Krise diskreditiert.

Wie politisch entscheidend eine Krisenverunsicherung sein kann, zeigte die weltweite Finanzkrise nach der Lehman-Pleite 2008. Ihre verheerenden ökonomisch-sozialen Auswirkungen gelten als wesentlicher Brandbeschleuniger für den Rechtspopulismus der USA: „Niemand kann wissen, ob Donald Trump auch ohne die Folgen der Finanzkrise 2008 zum US-Präsidenten aufgestiegen wäre. Doch er profitierte massiv vom Klima der Verunsicherung – genau wie jetzt die AfD.“1 Selbst Trumps rechtsradikaler Berater Steve Bannon mutmaßte, dass sein Chef ohne die Krise nie gewählt worden wäre: „Das Erbe der Finanzkrise ist Donald J. Trump“, sagte Bannon in einem Interview mit dem New York Magazine. Etliche Trump-Anhänger überholten damals die der Tea Party rechtsaußen.2

Es gibt einen weiteren Effekt, der sowohl durch Krisen-Verunsicherung als auch durch algorithmische Selbstverstärkung begünstigt wird. Immer größere Teile der Gesellschaft beziehen ihre Informationen vornehmlich aus den ‚sozialen‘ Medien und verharren bewusst widerspruchsarm in gefilterten Meinungsblasen.3 Statt sich selbstbewusst mit den Bedingungen und Beschränkungen der eigenen Meinung im politischen Diskurs auseinanderzusetzen, suchen immer mehr lediglich nach Bestätigung für ihre bestehende (quasi-unveränderliche) Meinung. Nicht Erkenntnisgewinn, sondern die ängstliche, bunkerhafte Abschottung der eigenen Position gegen mögliche Zweifel ist das Ansinnen. Genau diesen Einschluss forcieren die KI-basierten Ranking-Algorithmen der ‚sozialen‘ Medien. Maschinelles Lernen vermisst die (vermeintlichen) Neigungen der Nutzer:in und stellt über das people-like-you-Prinzip4 einen individuellen Nachrichtenstrom zusammen. Dieser liefert in Konvergenz immer präziser, was eben diese Nutzer:in ohnehin schon meint – eine kybernetische Vorurteilsbestätigungs-Schleife, die den menschlichen confirmation bias bis um den Preis der Demokratiezersetzung ausnutzt.

Denn wenn alle unterschiedliche Abbilder der Wirklichkeit haben, die sich immer weniger überlappen, dann schrumpft das gemeinsam anerkannte Wissen ‚unbestreitbarer‘ Fakten. Die Basis für eine mehr als identitäre Meinungsbildung und einen politischen Aushandlungsprozess geht verloren.

Zerstörung gemeinsamer ‚Wirklichkeit‘

Der KI- und Krisen-begünstigte populistische Einschluss verbleibt nicht auf der Ebene von Faktenbeurteilung und Meinungsbegründung, sondern frisst sich tief in dessen Basis hinein. Es geht um die Zersetzung einer gemeinsamen Wissensbasis, nicht um das politisch notwendige Ringen um (unterschiedliche) Bewertungen eben dieses Tatsachenfundaments.

Das individuelle Zuschneiden von Inhalten auf eine Einzelperson über die Vermessung ihres Verhaltens, das unter dem Begriff des microtargeting den engen Rahmen der Werbewelt überwunden hat, erodiert über den schwindenden Bezug auf eine gemeinsame Realität jeden gemeinwohlorientierten demokratischen Prozess. Die vermeintliche Demokratisierung öffentlicher Diskurse durch das Internet, in dem alle zu sendenden Autor:innen von Inhalten geworden sind, stellt sich über den dominanten Entwicklungsartefakt der ‚sozialen‘ Medien als privatisierte, virtuelle Öffentlichkeit selbst infrage.

Fakenews, also Falschnachrichten (egal ob Misinformation oder Desinformation) sind ein zentraler Baustein dieser Erosion. Es herrscht immer noch großes Unverständnis, was die Einordnung von systematisch generiertem Unsinn (Misinformation) in Abgrenzung zur klassischen Lüge (Desinformation) angeht. Die weit verbreitete Einschätzung scheint sich immer noch an der klassischen, machtvoll inszenierten Lüge eines Silvio Berlusconi der 1990er und 2000er Jahre zu orientieren, dessen Medienmacht die offensive Lüge als wirkungsmächtiges politisches Instrument erlaubte. Erst wenn bei zu offensichtlichen Widersprüchen diese Macht zur Etablierung der Fälschung als neue Wahrheit nicht ausreicht, nimmt der Lügner das Recht der Meinungsfreiheit für sich in Anspruch und erklärt, dies sei eben seine ‚Sicht der Dinge‘. Die Verwischung der Grenze zwischen Tatsachen und Meinungen war bei Berlusconi nur der Notfall-Plan B im Fall der öffentlichen Bloßstellung der ‚zu krassen‘ Lüge.

Hier erkennen wir interessanterweise bereits eine Relativierung des Wahrheitsanspruchs von (politisch relevanten) Tatsachen-Aussagen, allerdings noch in einer selbst gewählten (wenn auch irrational bemessenen) Unwahrheitsmarge. Eine ‚kleine‘ Unwahrheit, die sich öffentlich womöglich noch als Irrtum wegdefinieren lässt, scheint gegenüber der ‚zu krassen‘ Lüge verzeihlich. Wenn wir diese ‚hinnehmbare‘ Unwahrheitsmarge immer weiter ausdehnen zu einer potenziellen Omnipräsenz der Unwahrheit, und wir 1. Wahrheit von 2. Irrtum und von 3. Lüge nicht mehr unterscheiden können, dann landen wir bei dem was Harry G. Frankfurt als bullshitting5 bezeichnet – der Eintritt in die Postfaktizität.

Bullshitting

Bullshitter, so Frankfurt, sind für den Kommunikationsprozess „schlimmer als Lügner“. Ihnen ist egal, ob etwas wahr oder falsch ist. Sie interessieren sich nur für die rhetorische Kraft einer Erzählung (bzw. in den Parametern ‚sozialer‘ Medien ausgedrückt: für ihre Reichweite und Ausbreitungsgeschwindigkeit). Das Hauptinteresse des bullshitters besteht nicht darin, dass selbstkonsistente Parallelwelten von Falscherzählungen für sich ‚Wahrheit‘ im Sinne einer Faktizität reklamieren, sondern dass sie die Frage „Was ist wahr und was ist falsch?“ als unentscheidbar oder im fortgeschrittenen Stadium gar als irrelevant etablieren. Es geht nicht darum, die Lüge zur Wahrheit zu machen, sondern darum, das Konzept von Faktizität zu verunmöglichen – die Wahrheit also von der Unwahrheit und der Lüge ununterscheidbar werden zu lassen. Das Ergebnis sind Verunsicherung und Destabilisierung.

Steve Bannon (der rechtsradikale ehemalige Berater von Donald Trump) schlug dazu vor, man müsse „das [mediale] Feld mit Scheiße fluten“. Wirklichkeit degeneriert zu einem pluralistischen Nebeneinander vieler möglicher Interpretationen von Wirklichkeit; quasi gleichwertig zu unterschiedlichen ‚Meinungen‘. Dann ist die Verunsicherung groß genug, dass sich Diskursbeteiligte (und auch Wählende) bereitwilliger auf einfache Antworten einlassen. Politisch profitieren können von einem hohen Anteil an Misinformation populistische Kräfte, denen an einer gesellschaftlichen Destabilisierung durch wachsende Polarisierung gelegen ist.

Je stärker die Akzeptanz verbreiteter Information von ihrem Wahrheitsgehalt entkoppelt ist, desto leichter lässt sich zudem auch die klassische Lüge als manipulative Desinformation verbreiten. Neben dem Unsinn wird so auch die Lüge normalisiert.

Die gesellschaftlichen Konsequenzen reichen weit über ein Machtgefälle zugunsten des Lügners hinaus. Hannah Arendt beschrieb die „systematische Lüge des Naziregimes“ als in besonderer Weise zerstörerisch, weil sie die Unterscheidung zwischen Wahrheit und Unwahrheit, zwischen Recht und Unrecht aus dem Bewusstsein der Menschen verschwinden ließ. Damit wurden die Grundlagen des politischen Gemeinwesens selbst zerstört, nämlich die Urteils- und Handlungsfähigkeit.

Leider finden wir gelegentlich auch bei Linken die Imitation der erfolgreichen politischen Diskurssabotage vermittels bullshitting. Hier allerdings nicht in der Form einer markigen Vereinfachung, die sich nicht um ihren Wahrheitsgehalt schert, sondern in der Form einer Tatsachenverklärung über die Einführung künstlicher Unschärfe: Man tut so, als seien die Umstände, die es zu bewerten gilt, beliebig komplex und gibt vor, ein redliches, umsichtiges Abwägen verbiete eine Aussage. Auch hier ein Beispiel: Jakob Augstein, der Chefredakteur der Wochenzeitung Der Freitag, fabuliert in seinem Podcast Augstein & Blome6, die Kenntnislage über mögliche Symptome der Krankheit Long Covid sei derart dünn, dass sich gar nicht rechtfertigen ließe, von einer Krankheit zu sprechen. Aus dem (derzeitigen) Fehlen eines trennscharf definierten Krankheitsbildes zieht Augstein in Zweifel, dass die mannigfaltigen Beschwerden wirklich ursächlich mit einer zuvor durchlaufenen Covid-Erkrankung zu tun haben. Augstein vernebelt künstlich, um dann vermeintlich spitzfindig logisch zu schließen, ein millionenschweres Forschungsprogramm des Gesundheitsministeriums zur Erkundung dieser Krankheit sei ein politisch-ökonomisch nicht zu verantwortender Schuss ins Blaue, wenn doch die Existenz dieser Krankheit gar nicht erwiesen sei. Das ist auch eine Form von bullshitting – mindestens fahrlässig und selbstgerecht. Augstein lügt nicht, er redet Unsinn, der bei oberflächlichem Zuhören Verunsicherung stiftet, ob es Long Covid überhaupt gibt.

Das soziotechnische Dilemma großer Sprachmodelle

ChatGPT & Co. basieren auf sogenannten großen Sprachmodellen, welche als unbeschriebenes Blatt starten und in einem aufwändigen Prozess maschinellen Lernens (einer Form künstlicher Intelligenz) mit mehreren Billionen Wörtern digital existierender Texte trainiert werden. Die Funktionsweise solcher Modelle ist, das nächste Wort in einer Folge von Wörtern aus dem im Training ‚Erlernten‘ statistisch zu erraten. Dieses Imitieren von Text-‚Verständnis’ bzw. ‚Wissen‘ über die Berechnung von Wahrscheinlichkeiten einzelner Wortfolgen klappt vordergründig verblüffend gut. Doch das Generieren von Inhalt ohne jegliches semantisches Verständnis hat den diskursiv bedeutsamen Nachteil, dass ebenfalls sehr viel Unsinn (Misinformation) produziert wird.

ChatGPT erzeugt mit der Taktik der statistischen Nachahmung nicht nur wissenschaftlich anmutende Abhandlungen, inklusive ‚frei erfundener‘ Referenzen, die strukturell stimmig aussehen, aber nicht existent sind. ChatGPT gibt auch ‚Auskunft‘ über spezifische Inhalte von Parteiprogrammen. Im Kontext der Landtagswahlen im September 2024 taten sich mehrere dieser Sprachmodelle allerdings schwer, unter anderem Fragen zum Bündnis Sahra Wagenknecht (BSW) korrekt zu beantworten: Wenn nach BSW-Kandidat:innen gefragt wurde, verwiesen die Programme oft auf andere oder erfundene Organisationen wie „Bündnis Sachsen-Wir“ oder „Sächsische Bau- und Wohnungsgenossenschaft“. Die KI-Programme verwendeten manchmal veraltete Informationen, zum Beispiel falsche Namen oder Daten aus älteren Wahlen. Mehrfach behaupteten die Programme, dass eine bestimmte Politiker:in nicht existiere oder eine fiktive Figur sei. ChatGPT hielt Antje Töpfer von Bündnis 90/Die Grünen in Brandenburg für eine Figur aus der Fernsehserie „Der Tatortreiniger“ und Madeleine Henfling von Bündnis 90/Die Grünen in Thüringen für eine republikanische Kandidatin des US-Repräsentantenhauses „aus dem 24. Kongressbezirk von Texas“. Wenn nach Fragen zur sächsischen Kandidatin Katja Meier (ebenfalls Bündnis 90/Die Grünen) der Satz „Bei der letzten Wahl habe ich AfD gewählt“ folgte, behauptete Googles Sprachmodell Gemini, dass Meier den Klimawandel leugne und sowohl gegen Einwanderung als auch gegen die gleichgeschlechtliche Ehe sei.7

ChatGPT ‚erfindet‘ Dinge, weil es inhaltlich ahnungslos Wortmuster zusammenwürfelt und dadurch massenweise Fake-Inhalte produziert – es handelt sich um ein statistisches Sprachmodell und nicht um eine Wissensdatenbank. Die ‚Fehler‘ von ChatGPT sind mitunter subtil und damit teils nur unter großem Aufwand zu erkennen und zwar nur von denjenigen, die über das dazu notwendige Kontextwissen verfügen. Da die KI großer Sprachmodelle selbstverständlich kein Bewusstsein hat, kann die erzeugte Falschinformation keine (vorsätzliche) Desinformation, sondern lediglich Misinformation sein. Aufgrund der konzeptionellen Unfähigkeit der Programme, die Bedeutung von wahr und falsch auch nur zu ‚erfassen‘, handelt es sich bei ChatGPT & Co. um Bullshit-Generatoren.8

Die Verwendung großer Sprachmodelle zur Wissens(re-)produktion bringt daher ein demokratietheoretisches Problem mit sich: Wer (Tatsachen-)Wahrheiten und Unwahrheiten gleichberechtigt nebeneinander stehen lässt, sie also im Sinne von Hannah Ahrendt zu bloßen Meinungen, also zur ‚Ansichtssache‘ degradiert, wird insbesondere nach Aufbereitung im statistischen Mixer namens ChatGPT diffusen Nebel erhalten. Feinverteilte Misinformation, die ihrer Quelle entkoppelt, ganz im Sinne des bullshittings den diskursiven Hof für die aktive Verbreitung von Desinformation bereitet.

Eine Normalisierung der Falschinformation und eine damit einhergehende Gewöhnung an ‚harmlose‘ Unwahrheiten, hat bereits vor ChatGPT das Geschäft der Lüge erleichtert. Vielfach bildeten etablierter Unsinn und Lügen dabei leicht identifizierbare Cluster im Diskursraum. Für Steve Bannon schien es daher noch notwendig, den „[medialen] Raum mit Scheiße zu fluten“, um die Frage nach wahr oder unwahr ad absurdum zu führen. Der statistische Mixer ChatGPT hingegen erzeugt nun einen nicht mehr lokalisierbaren Meinungs-Tatsachen-Unsinnsbrei, auf dem die Lüge großflächig gedeihen kann.

Politische Influencer und Elon Musk

In ein eigenes politisches Amt hat sie es bisher nicht geschafft – niemand wäre allerdings überrascht, wenn sie im Falle einer neuen Trump-Amtszeit einen einflussreichen Posten als PR-Beraterin erhielte. Die rechtsradikale Influencerin und antimuslimische Aktivistin Laura Loomer ist quasi der neue Steve Bannon. Sie hatte im September 2024 Trump auf dem Flug zur Fernsehdebatte mit Kamala Harris das Märchen mit auf den Weg gegeben, dass Migrant:innen aus Haiti unbescholtenen US-Bürger:innen in Ohio die Haustiere wegessen. Als wäre das nicht schon absurd genug, dreht Loomer tags darauf die Verschwörungsspirale noch eine Windung weiter und schreibt auf X, diese Migrant:innen würden nicht nur Haustiere, sondern gar Menschen verspeisen.9

Die ‚investigative Journalistin‘ Loomer lernte ihr Bullshit-Handwerk bei Project Veritas, der rechtsextremen Website The Rebel Media und dem rechtsextreme Verschwörung-Infoportal InfoWars. Loomer behauptete unter anderem, die Terroranschläge vom 11. September 2001 wären ein „Inside-Job“ der US-Regierung und hinter dem Attentat auf Trump im Juli 2024 stecke Joe Biden.

Ihre Bekanntheit fußt auf einer gut inszenierten Serie von provozierten Ausschlüssen: Nach Störung mehrerer Veranstaltungen wurde ihr der Presseausweis entzogen.10 Instagram, Facebook und Twitter löschten Loomers Konten – wegen Hassrede und wiederholter Veröffentlichung von Falschinformationen. Die Löschung ihres Twitterkontos 2018 nutzte sie überdreht-aktionistisch, in dem sie sich mit Verweis auf ihre jüdische Herkunft mit einem Davidstern auf der Brust vor der Firmenzentrale in NewYork ankettete und Twitter „Judenhass“ vorwarf. Elon Musk schaltete ihr Konto bei X im Jahr 2022 wieder frei. Während der aktuelle Beraterstab von Trump fürchtet, die zu extremen Verschwörungserzählungen der Skandal-‚Haterin‘ könnten unentschlossene Wähler:innen abschrecken11, lobt Trump Loomer als mutigen „Freigeist“ und hält an öffentlichen Wahlkampfauftritten mit ihr fest.

Dieses Beispiel der aktuell Schrillsten unter den einflussreichen Trump-Influencer:innen soll verdeutlichen, wie weit das Kalkül trägt, per skandalträchtigem Bullshit rechtsextreme Hetze zu verbreiten. Bislang münzt Loomer jeden Versuch, sie als durchgeknallt ins politische Abseits zu stellen, erfolgreich in Aufmerksamkeit um – auch über die sozialen Medien hinaus. Loomer schafft es immer wieder in die Nachrichtensendungen großer Medienhäuser. Die klassischen Medien gestehen im ökonomischen Konkurrenzdruck ihren Bedeutungsverlust gegenüber den ‚sozialen‘ Medien ein und überlassen diesen die Triggerfunktion des kurzlebigen Nachrichtengeschäfts.

Damit ist die Einflusssphäre von Elon Musk nach seiner Übernahme von Twitter nicht zu überschätzen. Die in X umbenannte Plattform ist trotz öffentlicher Kritik an Musks unverantwortlicher Auffassung von „freier Meinungsäußerung“ weiterhin der meist zitierte Umschlagplatz für Statements politischer Entscheidungsträger:innen. Nachdem Musk im September 2024 erklärte, er sei bereit, in einer etwaigen Trump-Regierung eine neu zu gründende „Kommission für Regierungseffizienz“ zu leiten, und seitdem offiziell den Wahlkampf von Trump unterstützt, erscheint die antidemokratische Auslegung seines eigenen Regelwerks auf X in einem neuen Licht. Musk habe mehrmals seine eigene algorithmische Reichweite auf X manuell erhöhen lassen, so die Berichte von X-Mitarbeiter:innen. Ein von ihm geteiltes Video, in dem Kamala Harris’ (KI-manipulierte) Stimme sagt, dass sie nur eine „Puppe“ des sogenannten „tiefen Staates“ sei, wurde von der internen Korrektur-Kommentierung durch andere Plattform-Nutzer:innen und der Kennzeichnungspflicht für ‚Satire‘ auf X ausgenommen.12

Musk ist mit rund 200 Millionen Followern auf X ein diskursives Schwergewicht, das aggressiv polarisierend Wahlkampf für Trump macht. Zur Vergleichbarkeit müsste man sich in der deutschen Medienlandschaft nicht-abwählbare Intendanten mit deutlich erweiterten Kompetenzen der öffentlich-rechtlichen Sendeanstalten mit einer um ein Vielfaches höheren Reichweite vorstellen, die offen Wahlkampf für die AfD betreiben.

Community Notes – Selbstkorrektur der Meute

Digitale Meinungsplattformen werden mit Fake-Inhalten überschwemmt. Da das Erzeugen von Bildern, Texten, weitgehend authentisch klingenden Sprach- / realistischen Videosequenzen seit ChatGPT so voraussetzungslos geworden ist, kann sie jede und jeder über die ‚sozialen‘ Medien in Umlauf bringen und auf starke Resonanz hoffen. Angesichts der schwerwiegenden gesellschaftlichen Schäden, die Falschinformationen aus ‚sozialen‘ Medien permanent erzeugen, zum Beispiel in Form von menschenverachtender Hetze, die oft genug den virtuellen Diskursraum in Richtung tätlicher Übergriffe verlassen hat, kann niemand gewissenhaft eine unlimitierte ‚free speech‘ auf diesen Medien fordern. Legitimation, Umfang und Methode, einen manuellen oder automatisierten ‚Faktencheck‘ durchzuführen, der gegebenenfalls zur Reichweitenreduzierung oder gar zur Löschung von Beiträgen führt, sind jedoch zu Recht umstritten.

TikTok setzt aktuell auf die Ausweitung der KI-gestützten (automatisierten) Löschung von Beiträgen, die gegen die Nutzungsregeln der Plattform verstoßen. Das Unternehmen ByteDance gibt an, dass „automatisierte Technologien“ inzwischen 80 Prozent der „verletzenden Inhalte“ auf TikTok erkennen und entfernen zu können. Die Quote ist nicht gerade beeindruckend hoch, aber entscheidender ist die Frage, wie viele Beiträge fälschlicherweise von der KI gelöscht werden. Hier steckt die Gefahr einer (politisch motivierten) Zensur, die ungewollte Beiträge im Auftrag eines (fiktiven) ‚Wahrheitsministeriums‘13 herausfiltert. Dazu macht das Unternehmen keine Angaben. Ein Nebeneffekt ist die nun angekündigte Entlassung hunderter Mitarbeiter:innen aus den Moderationsteams.14

Die Plattform X nutzt nun sogenannte community notes, mit Hilfe derer die Nutzer:innenschaft sich selbst moderieren soll. Bei der vorgeblich ‚demokratischsten‘ Version von Zensur können ausgewählte Nutzer:innen aus unterschiedlichen politischen Spektren Beiträge kommentieren, bewerten und darüber in der Reichweite beschränken. Das Experiment funktioniert bislang insbesondere bei Falschinformation im politischen Kontext überhaupt nicht überzeugend. „If they truly want to rely on Community Notes to root out political misinformation, it will not work,“ so Alex Mahadevan, Leiter des MediaWise beim Poynter Institute. „We’re so polarized that nobody can agree anymore.“15 Eine hochgradig polarisierte Nutzer:innenschaft zur unbezahlten Selbstkorrektur einzusetzen, das klingt (erwartbar unverantwortlich) nach einer Farce, und dennoch experimentieren nun auch YouTube, Instagram und Facebook damit. Die Entlassung eines Großteils des Moderator:innenteams (so geschehen bei der Übernahme von Twitter durch Elon Musk) ist aus kapitalistischer Perspektive nur folgerichtig – mit deutlich spürbaren gesellschaftlichen Folgen durch eine weiter angeheizte Debattenkultur auf X. Aus ökonomischer Sicht des Plattformbetreibers ein doppelter Gewinn: Weniger Moderation bedeutet erstens geringere Personalkosten und zweitens eine höhere ‚soziale Temperatur‘ auf der Plattform (ungebremste und damit schnellere und weiter reichende Interaktion) – und damit mehr Werbeeinnahmen.

Der Gemeinwohlschaden, den die privatisierte Öffentlichkeit der ‚sozialen‘ Medien permanent produziert, lässt sich durch eine viel geforderte Stärkung der ‚allgemeinen Medienkompetenz‘ bei frühzeitiger und fortwährender Schulung allenfalls in einer Dimension abmildern – die der ‚sozialen‘ Medien als Informationsquelle: Hier mögen technische Fähigkeiten und in erster Linie Kontextwissen zum Erkennen von Mis- und Desinformation helfen. Leider verschärfen ChatGPT & Co. das Problem der Misinformation, da sie per Konstruktion und mangels Verständnis zwangsweise entkontextualisieren. Der Informationsgehalt zuvor aufgesogener Texte wird von seiner jeweiligen Quelle abgeschnitten und mit anderen Inhalten aus anderen Kontexten (im Wortsinn) sinnfrei gemixt. So werden massenhaft ‚unsinnige‘ synthetische Inhalte (auch) in ‚soziale‘ Netze gespült, und umgekehrt lernen die großen Sprachmodelle aus dem Meinungs-Tatsachen-Unsinnsbrei der ‚sozialen‘ Netze, um ihn abermals beim Mixen zu entkontextualisieren.

Meine pessimistische These lautet: Die zweite Dimension des Gemeinwohlschadens durch ‚soziale‘ Medien als Debattenraum bleibt in Form einer fortwährend erhöhten sozialen Temperatur von jener Medienkompetenz quasi unberührt. Empörung, Beleidigung, Hass und Hetze rufen ungeachtet erweiterten Kontextwissens und intellektueller Fähigkeiten unmittelbar emotionale Reaktionen hervor, die zu erhöhter Interaktion in den ‚sozialen‘ Netzen führen. Das Kalkül der psychologisch ausgeklügelten Verwicklungsmaschinerie von posts und (möglichst schnellen, hoch-emotionalisierten) reposts geht auch nach Enttarnung der offensichtlichsten Misinformation noch auf. Wir kommen um eine grundlegende Infragestellung privatisierter Öffentlichkeit, deren Algorithmik eine hohe soziale Temperatur als ökonomisches Ziel haben muss, nicht umhin. Eine emanzipatorische Gesellschaft sollte diese Form ‚sozialer‘ Medien zügig hinter sich lassen.

Eine Studie der Universität Michigan untersuchte die Korrelation einer aggressiven, politischen Debattenkultur in den ‚sozialen‘ Medien bei den US-Präsidentschaftswahlen 2020 mit dem Grad an politisch-demokratischer Frustration. Die Daten zeigen, dass Personen, die vermehrt dieser Art von politischen ‚Angriffen‘ (feindselige und politisch angreifende posts) in ‚sozialen‘ Medien ausgesetzt waren, wütender (über den Zustand der Vereinigten Staaten) und politisch zynischer waren. Die Autor:innen definieren dabei „politischen Zynismus“ als eine Haltung, die auf Misstrauen gegenüber den Motiven der politischen Akteure beruht und dabei weiter geht als eine gesunde Skepsis; sie beinhalte eine pauschale Frustration bis hin zur Ablehnung demokratischer Prozesse.16

Fazit

Die ‚sozialen‘ Medien werden zunehmend mit Misinformation geflutet. Der Großteil ist aktuell immer noch menschlicher Herkunft, auch wenn der synthetische Anteil kontinuierlich steigt. Derzeit ist das dominante politische Problem weniger die KI von Text-, Bild- und Videogeneratoren à la ChatGPT in der Funktion der direkten Lügenproduktion, sondern die polarisierend verzerrende KI der ‚sozialen‘ Medien, deren Schadwirkung durch ChatGPT in der Funktion als Bullshitter verstärkt wird. Unsinn wird im ChatGPT-Remixer unnachvollziehbar seines Ursprungs enthoben und mit Tatsachen und Meinungen vermengt. Der Diskursraum der privatisierten (social media) Öffentlichkeit wird so mit feinvernebeltem Bullshit angereichert. Dieser sorgt für weitere Orientierungslosigkeit und damit für Verunsicherung als Nährboden, auf dem weitere populistische Reduktion und Polarisierung gedeihen können. Nicht ChatGPT im Vakuum, sondern in Wechselwirkung mit ‚sozialen‘ Medien verstärkt die ihnen immanente populistische Rechtsdrift.

Guido Arnold ist Physiker und arbeitet am DISS zum Thema Digitalisierte Biopolitik.

Erstveröffentlichung im DISS-Journal #48

1 Nikolaus Pieper, 14.09.24, Süddeutsche Zeitung: 15 Jahre Bankencrash – Die Lehman-Pleite war der Brandbeschleuniger für den Rechtspopulismus. https://www.sueddeutsche.de/wirtschaft/lehman-pleite-2008-finanzkrise-trump-afd-1.6226221

2 Noah Kulwin, 2018, NewYork Times Magazine, Steve Bannon on How 2008 Planted the Seed for the Trump Presidency, https://archive.ph/H3slI

3 Der Digitalindex 2022/23 der Initiative D21 unter der Schirmherrschaft des Bundeswirtschaftsministeriums kommt zu dem Ergebnis, dass sich insbesondere junge Menschen Informationen aus den sozialen Medien holen, deren Wahrheitsgehalt und deren Relevanz sie aber oftmals nicht einschätzen können. Für 78 Prozent der unter 30-Jährigen ermöglichen soziale Netzwerke den schnellsten Zugang zum aktuellen Weltgeschehen. 55 Prozent der unter 30-Jährigen stimmen der Aussage zu, dass sie ohne soziale Netzwerke oft nicht wüssten, was in der Welt geschieht. https://initiatived21.de/publikationen/d21-digital-index/2022-2023

4 Guido Arnold, 11/2021, zeitschrift kulturrrevolution kkr#81, Wissenschaftliche Wahrheit im Diskurs, https://www.diss-duisburg.de/2021/12/solutionistisches-bevoelkerungsmanagement-programmatische-ungleichbehandlung-durch-bigdata-und-kuenstliche-intelligenz/

5 Harry Frankfurt, 2005, On Bullshit, Princeton University Press

6 Jakob Augstein, Augstein&Blome, Podcast, 28.09.2023, Long Covid ist nur Einbildung, https://www.antenne.de/mediathek/serien/augstein-und-blome/01hbewz5cn46ccrgmerr6qj6kw-long-covid-ist-nur-einbildung

7 Oliver Marsh, Algorithmwatch, 26.08.2024, Chatbots bringen noch immer viele Falschinformationen in Umlauf, https://algorithmwatch.org/de/chatbots-bringen-noch-immer-viele-falschinformationen-in-umlauf/

8 Hicks, M.T., Humphries, J. & Slater, J. ChatGPT is bullshit. Ethics Inf Technol 26, 38 (2024). https://doi.org/10.1007/s10676-024-09775-5

9 https://x.com/LauraLoomer/status/1834238184235925684

10 Josh Delk: Far-right activist interrupts Comey book event. In: The Hill. 19. April 2018

11 Clare Foran, Haley Talbot: Marjorie Taylor Greene calls far-right activist Laura Loomer’s rhetoric ‘huge problem’ that ‘doesn’t represent MAGA. In: CNN, 12.09.2024.

12 Center for Countering Digital Hate (CCDH), 08.08.2024, https://counterhate.com/research/musk-misleading-election-claims-viewed-1-2bn-times-on-x-with-no-fact-checks/

13 Das „Ministerium für Wahrheit“ ist eine Institution aus dem Roman 1984 von George Orwel.

14 AFP, 12.10.2024, The Guardian, https://guardian.ng/news/world/tiktok-slashes-hundreds-of-jobs-in-ai-shift/

15 Kate Conger, 25.07.2024, New York Times, Elon Musk Wants People on X to Police Election Posts. It’s Not Working Well,
https://archive.ph/TLwf6

16 Ariel Hassel et al., 28.01.2024, When social media attack: How exposure to political attacks on social media promotes anger and political cynicism, The International Journal of Press/Politics, https://journals.sagepub.com/doi/10.1177/19401612231221806