Nudging – die politische Dimension psychotechnologischer Assistenz

  • Lesedauer:24 min Lesezeit

Von Guido Arnold

Neue Technologien nehmen einen wachsenden Einfluss auf die Formierung von Subjekten. Vielfach werden insbesondere die hohe Transformationsgeschwindigkeit einer disruptiven Entwicklung sowie die systematische Vereinnahmung der Aufmerksamkeit als problematisch für eine ‚demokratische Subjektivierung‘ angesehen. Tatsächlich stellen KI-gestützte Psychotechnologien perspektivisch die Grundlage für politisches Handeln, nämlich die politische Willensbildung in Frage. Ein Plädoyer gegen das ‚nudging‘.

Autonomie und die ‚Illusion des freien Willens‘

Es ist eine immer wiederkehrende Diskussion unterschiedlicher Schulen mit unterschiedlichen Begriffsbildungen: Gibt es so etwas wie einen „freien Willen“ oder ist diese Form der individuellen Autonomie eine Illusion? Diese Frage ist von unmittelbarer Relevanz für unser Autonomieverständnis in Bezug auf automatisierte Empfehlungs- und Entscheidungssystme, um die es diesem Artikel eigentlich geht. Dem Philosophen Gaspard Koenig ist mit „Das Ende des Individuums“ eine gute interdisziplinäre Zusammenstellung aktueller Forschung zur Frage der Willensfreiheit gelungen1.

Eine Vielzahl kognitiver Verzerrungen und Reflexe prägen die Arbeit unserer neuronalen Verknüpfungen im Hirn, sodass niemand mehr in der Kognitionsforschung von einer unbeeinflusst rationalen Entscheidung im Sinne eines ‚freien Willens‘ spricht. Der Umkehrschluss, dass damit jegliche eigenständige Rationalität in unseren Entscheidungsprozessen über Bord zu werfen sei, erweist sich jedoch als ebenso falsch, wie der Versuch, den freien Willen (im Sinne eines einzelnen Aktes) aufrechtzuerhalten. Es scheint die Position eines ‚Kompatibilismus‘ Sinn zu ergeben, in der die Willensfreiheit keinen Widerspruch mehr zum biochemischen Determinismus auf der Mikroebene darstellt.

Der Psychologe Daniel Kahneman, der 2002 den Nobelpreis für Wirtschaftswissenschaften erhielt, beschreibt den menschlichen kognitiven Prozess wie folgt:2 Ein System 1 – wie er es nennt – ist verantwortlich für schnelles Denken und produziert viele Annahmen und Gedankenfragmente, die von einem System 2 (deutlich langsamer) mehrheitlich verworfen werden. In diesem zweiten Entscheidungs- und Korrektursystem könnte mensch so etwas wie eine ‚Rationalität‘ eines Willensaktes verorten. Wegen der Langsamkeit von System 2 werden aber auch oft ‚spontane‘ Vorschläge von System 1 durchgewunken.

Ob ich beim Anblick einer in den Rhein gestürzten Person helfend hinterher springe, ist kein unbeeinflusst ‚freier‘ Willensakt, sondern neuronal vorgeprägt durch meine bisherigen ins Unterbewusstsein verfrachteten Reflexionen und kontextbezogenen Emotionen. Darüber ist diese vermeintliche Ad-hoc-Entscheidung zwar nicht vollständig determiniert, jedoch weniger ad-hoc. Die Entscheidung für oder gegen den Sprung in die tückische und mitunter tödliche Strömung kann als eine Überlagerung vieler in der Vergangenheit getroffener Einzelentscheidungen entfaltet werden. Nur unter der neurowissenschaftlich nicht haltbaren Annahme eines statischen neuronalen Geflechts in unseren Hirnen wäre es gerechtfertigt, von einem vollständigen biochemischen Determinismus zu sprechen. Letzterer widerspräche jeder reflexiven Autonomie.

Die Neurowissenschaften sehen jedoch explizit, dass Emotionen, Erfahrung und gedankliche Wiederholung im Rahmen eines Lernprozesses Nervenbahnen umformen3. Entscheidungen sind ansatzweise auf ‚neuronalen Karten‘ nachvollziehbar bevor sich diese überhaupt (bewusst) ausgedrückt haben. Aber der Prozess, der zu diesen Entscheidungen führt, ist sehr wohl beeinflusst von einer aktiven Willensfreiheit und Persönlichkeitsbildung. Dies ist nicht mehr kompatibel mit einer überkommenen, mechanistischen Sicht auf festgeschriebene biomechanischen Abläufe im Hirn. Die modernen Neurowissenschaften sehen vielmehr Entscheidungsneuronen, die in Rückkopplungsprozessen gehemmt oder aktiviert werden und willentliche Reflexion abbilden können4.

Die Autonomie eines willentlichen, gedanklichen Prozesses schreibt sich ein in (veränderliche!) neuronale Verknüpfungen – nicht als ein erratischer bzw. quasi-zufälliger „freier Wille“ einer Einzelentscheidung. Der Erfahrungshorizont der vielen vergangenen Abwägungsprozesse prägt vielmehr die neuronalen Verknüpfungen aus – vorbereitend und vorbestimmend für zukünftige Entscheidungsprozesse. Gemäß Daniel Dennett hat die Willensfreiheit „ihren Ort nicht in der finalen Entscheidung, sondern in den vorhergehenden Entscheidungen, die die Überlegung beeinflussen“. Er sieht die Willensfreiheit in einer Art reflektierter Intention – in Abhängigkeit von Wünschen, Glauben und Bedürfnissen. Die finale Entscheidung ist (im Nachhinein) immer vorhersehbar gewesen, nämlich intentional motiviert. Wenn ich mich letztendlich entscheide, trage ich immer meine gesamte Geschichte mit mir. Ich bilde selbst meine kognitiven Verzerrungen mit aus.

Wir halten fest: Der freie Wille, der als willkürlicher Akt mit der Biochemie bricht, ist als obsolet zu begreifen. Genauso wie ein biochemischer Fatalismus, der keinen Platz mehr für eine autonome Willens- und Persönlichkeitsbildung lässt.

Falsch ist damit aber auch die Vorstellung einer a priori Freiheit des Individuums von Geburt an. Die Willensfreiheit und eine daraus ableitbare rationale Verantwortlichkeit müssen reflexiv erarbeitet werden. Erst die Ausübung der Willensfreiheit strukturiert die Persönlichkeit des Individuums. Für deren Konstituierung zählt weniger das Resultat der Entscheidung als der gedankliche Prozess.

Diese Vorüberlegungen sollen helfen, die gesellschaftliche Wirkungsweise von automatisierten Empfehlungs- und Entscheidungssystemen zu analysieren.

Keine Wahl mehr treffen müssen

In der allgemeinen Debatte um künstliche Intelligenz, die in den meisten dieser Assistenzsysteme zur Anwendung kommt, wird vielfach über die sogenannte Singularität fantasiert. Das ist der Zeitpunkt, ab dem eine (starke=universelle) KI dem Menschen überlegen sein ‚wird‘. Darüber wird der Blick – teils mit Bedacht – vom eigentlichen Problem der jetzt schon existierenden (schwachen=hochspezialisierten) KI gelenkt: die Willensfreiheit zu unterminieren.

Die Einschränkung der Willensfreiheit geschieht dabei vornehmlich nicht über repressiv-autoritären Methoden5. Daher ließe sich treffender formulieren, dass die individuelle Wahlfreiheit unter den künstlich intelligenten Empfehlungs- und Entscheidungssystemen überflüssig gemacht wird. Diese Systeme verbieten nicht, sie sind uns zu Diensten, also nützlich, machen Vorschläge, bestärken, motivieren. Beduselt von der Bequemlichkeit und Effektivität bahnen ihre Nutzerinnen der entmündigenden Assistenz den Weg.

Einige Psychologinnen, Neurowissenschaftlerinnen und Technokratinnen sehen in künstlich intelligenten Empfehlungs- und Entscheidungssystemen das potentere, weil schnellere und umfassender informierte Korrektur-System 2 im Kahnemanschen Sinne. Sie argumentieren, dass der Mensch nach Abbau seiner Vorbehalte gegenüber der künstlichen Intelligenz zumindest solche Auswahl-Entscheidungen, die ihn im Alltag eher belasten, ebenso gut an eine gut trainierte digitale Assistenz delegieren könnte. Hierbei handelt es sich um ein politisches Projekt und keineswegs um einen Pragmatismus im Umgang mit den gesellschaftlichen Folgen neuer Technologien.

Wie nimmt uns KI-gestützte Assistenz Entscheidungen ab? Oder anders formuliert: Über welche Methoden lässt sich das Individuum lenken, ohne eine explizite Bevormundung zu verspüren?

Künstlich intelligentes nudging

Mit dem Verweis auf eine zunehmende Komplexität der Einflüsse auf das Individuum führte Richard Thaler (Nobelpreis der Wirtschaftswissenschaft 2017) den Begriff des „libertären Paternalismus“ ein. Dieser greift zurück auf viel ältere Vorstellungen des Behaviorismus. In Abwendung vom Homo oeconomicus, der zur Optimierung des eigenen Nutzens eigenständig rational handelt, wird das Individuum verhaltensökonomisch in eine bestimmte Richtung gestupst (englisch: nudge6). Dieser Stupser geschieht in der Regel unter Beibehaltung der Wahlfreiheit, allerdings insofern unbemerkt und intransparent, als dass die Angestupste nicht weiß, nach welchen Prinzipien sie ‚überzeugt‘ wird . Man verändert also die Wahrscheinlichkeitsverteilung dieser weiterhin verfügbaren Wahlmöglichkeiten.

Die Festlegung einer Reihenfolge mehrerer Auswahlmöglichkeiten im multiple-choice-Verfahren ist z.B. ein sehr simpler und wenig subtiler nudge. Obwohl mir keine der Optionen vorenthalten wird, ist die Wahrscheinlichkeit, dass ich eine der zuerst aufgeführten Auswahlmöglichkeiten in einer langen Liste wählen werde, größer. Google nutzt dieses gleichermaßen einfache wie effektive nudging, um bei der Anzeige der Ergebnisse einer Suchanfrage die vorderen Plätze gewinnbringend an Werbetreibende zu verkaufen. Weniger banal ist diese Form der lenkenden Priorisierung von Suchergebnissen wenn es um politische Inhalte in einem kontroversen Themengebiet, z.B einem ‚(Des-)Informationskrieg‘ geht.

Bei zunehmend sprachgesteuerter Assitsenz verschärft sich die effektive Reduktion der Ergebnisauswahl drastisch: Niemand lässt sich z.B. vom Amazon Echo eine lange Ergebnisliste vortragen. Hier kommt in der Regel allein der erste Listeneintrag als ‚Antwort‘ zum Tragen.

Komplexere nudges werden beispielsweise von Psychologinnen des sozialen Netzwerks facebook konstruiert. Hier werden algorithmische Anreizsysteme (z.B. unmittelbare Reaktion auf ein zuvor versandte Nachricht) auf einen messbar erhöhten Dopaminausstoß ausgerichtet, um die Verweildauer der Nutzerin auf der Plattform zu maximieren. Die Kenntnis der Belohnungszentren im Hirn ermöglicht eine zielgerichtete emotionale ‚Programmierung‘: Belohnung (likes), Wettstreit (Zahl der follower), aber auch Konflikte erzeugen gezielt Abhängigkeit, um im Sinne des Geschäftsmodells der Sozialen Netzwerke mehr Aktivität und damit mehr extrahierbare Daten zu generieren. Permanenter informationeller Kitzel mit einer Überbetonung hinsichtlich Verbreitungsgeschwindigkeit und Reichweite von Hass, Lüge und empörungsträchtigen Inhalten soll dezidiert süchtig machen – keine Unterstellung, sondern im Fall von facebook nachgewiesene Konzeption des sozialen Netzwerks7. Die Plattform in Gänze muss als „behavior modification system“ (Jaron Lanier) bezeichnet werden – ein vielschichtiger nudge zur Preisgabe intimer Daten.

Die politischen Konsequenzen dieses alltäglich milliardenfach angestupsten social-media-nudges gehen weit über Probleme des Datenschutzes hinaus: Wie sieht die Entwicklung einer Gesellschaft aus, deren dominant genutzte Kommunikationsplattformen zu regressivem Nutzerverhalten (emotionale Polarisierung zwischen Zustimmung und Beleidigung) anregen und den Zerfall in voneinander getrennte, parallele Informationswelten durch Blasenbildung begünstigen? Warum hofiert eine Gesellschaft Kommunikationsmedien, über die sich Desinformation bevorzugt verbreitet, um sie dann unter Legitimation einer Zensur wieder herauszufiltern?8 Dies sind soziotechnische und keine technischen Fragen – der nudge ist immanent politisch.

Nudging ist (bio-)politsch von großer Bedeutung, da sich individuelles Verhalten auch im Sinne eines ‚Nutzens‘ für die Gesamtheit automatisiert beeinflussen lässt: Navigationssysteme schlagen nicht unbedingt die für die einzelne Nutzerin schnellste bzw kürzeste Fahrtroute vor, sondern liefern insbesondere in Stausituationen eine Umgehung, die den Verkehrsfluss in Gesamtheit auf dieser Strecke optimiert. Hier werden informationelle Rückkopplungen der Verhaltenslenkung mit eingeplant: Der Verkehrsabfluss durch diejenigen, die vom Navi eine Umfahrungsempfehlung erhalten haben, überlastet schnell die Umgehungsstraßen. Die Konzeption einer ‚intelligenten Stadt‘ neuester smart city-Projekte sieht vor, sämtliche Aktivitäten im urbanen Raum (nicht nur den Verkehr) als Ströme zu interpretieren, die sich durch eine personalisierte digitale Assistenz, das „Gehirn der Stadt“ optimieren lassen.9

Die persönliche Empfehlung der digitalen Assistentin ist eine individualisierte aber keineswegs isolierte Empfehlung, sondern ein Kompromiss, der sich utilitaristisch am größten ‚Nutzen‘ für die größte Anzahl der Nutzerinnen orientiert. Bentham hatte mit der Begründung des Utilitarismus10 bereits eine biopolitische Sichtweise formuliert: Die Verhaltensbewertung und -lenkung des Individuums durch die Wechselwirkung mit der Gesamtheit einer umgebenden Gruppe.

Psychotechnologien – effiziente Erweiterung im biopolitischen Labor

In Erweiterung von Foucaults Biomacht und mit dem Rückkgriff auf Konzepte der Gouvernementalität lässt sich ein ‚neuer‘ Machttyp, die Psychomacht11 beschreiben. Eine Macht welche spezifisch über die Seele bzw. die Psyche ausgeübt wird. Diese „datengetriebene Machttechnik“ verführt, indem sie mit positiven Anreizen operiert: „Die neoliberale Psychopolitik ist eine smarte Politik, die zu gefallen, zu erfüllen sucht, statt zu unterdrücken“12. Sie bemächtigt sich der Emotion auf einer ‚präreflexiven Ebene‘ und beeinflusst dadurch Verhalten und Handeln der Individuen13. Ein solcher prospektiver Eingriff in die Psyche kann als Unterwanderung der Willensfreiheit interpretiert werden.

Affekttechnologien ermöglichen (wie bereits am Beispiel facebook beschrieben) einen unbemerkten Zugriff gezielt auf emotionale und unbewusste Regungen des Individuums. Dies eröffnet vielfältige Möglichkeiten der Verhaltens- und Gedankenmodifikation auf der Ebene des schnellen System 1, die sich häufig der Rationalität des langsamen System 2 entziehen.

Eine automatisierte audio-visuelle Emotionserkennung14 (auf wissenschaftlich höchst zweifelhafter Basis) zielt auf unterbewusste Merkmale in Stimme und Gesichtsmimik und wird nicht nur bei interaktiver Werbung eingesetzt, sondern auch zur Detektierung ‚auffälligen Verhaltens‘ in sicherheitsrelevanten Bereichen. Zur Vermessung von Zugewandtheit und Freundlichkeit der Mitarbeiterinnen in Callcentern bieten Firmen wie z.B. audeering eine automatisierte Stimmanalyse an. Das Projekt iBorderCtrl der EU gibt vor, aus den für Menschen unkontrollierbaren Mikroexpressionen der Gesichtsmimik während einer automatisierten Befragung beim Grenzübertritt etwaige Täuschungsabsichten von Migrantinnen erkennen zu können.15

Die Beispiele illustrieren, wie eine algorithmische Vermessung der Psyche in Erweiterung der klassischen biopolitischen Verhaltensanalyse eingreift in die Beziehung des Einzelnen zu privatwirtschaftlichen Akteuren, aber auch zu staatlichen Institutionen wie Sicherheits-, Bildungs- und Gesundheitseinrichtungen. Auf der Grundlage von selbstlernender KI werden die ‚gemessenen‘ psychischen Merkmale über das people-like-you Prinzip persönlichen Eigenschaften, Risiken oder Effizienzpotenzialen zugeschrieben. Und zwar ohne tatsächliche Kenntnis eines kausalen Zusammenhangs. Damit wird psycho- / bio-politsch Bevölkerung verwaltet und automatisiert ungleich behandelt.16

Byung Chul Han sieht in der Psychopolitik eine „Herrschaftstechnik, die vermittels psychologischer Programmierung und Steuerung das herrschende System stabilisiert und fortführt“.17 Es bildet sich ein Herrschaftsverhältnis im Sinne einer psychopolitischen Optimierung aus – zwischen denen, die einen nudge konzipieren (staatliche Institutionen sowie Technokratinnen unzähliger start-ups und etablierter Techkonzerne) und den Adressaten des nudges. Wir erleben damit eine Neuauflage des Behaviorismus in einer neuen und äußerst wirkmächtigen Gestalt.

Progressive Wendung möglich?

Könnten die Optimierungsparameter eines ‚progressiven nudges‘ nicht so gewählt werden, dass sich eine digitale Assistenz an einer fortschrittlichen ‚Parametrisierung von Gemeinwohl‘ orientiert? Der ‚Nutzen‘ sich also als gemeinschaftliches Wohlergehen bzw. Glück definierten ließe? Könnte der Rechtsaußen des Silicon Valley Peter Thiel zumindest theoretisch Recht haben mit seiner ‚Befürchtung‘, die KI sei tendenziell kommunistisch?

Die Antwort muss eindeutig nein lauten. Die Künstliche Intelligenz steigert nicht das Gemeinwohl eines komplexen sozialen Gefüges. Denn die KI hat kein Verständnis von der uns umgebenden Welt, sie ist schlicht begriffslos bezüglich der Bedeutung eines Gemeinsinns. Sie hat keine Idee davon, was das Wesen einer Gemeinschaft sein könnte. Egal wie viele Parameter ihre Optimierungsfunktion aufweist, egal wie gut und umfangreich die ihr zur Verfügung gestellten Trainingsdaten auch sein mögen. Die KI befördert vielmehr den Zerfall der Öffentlichkeit.18 Insbesondere die ihr immanente Nichtnachvollziehbarkeit der Ergebnisse für den Menschen und die in ihrer Funktionsweise begründeten programmatischen Ungleichbehandlung unterminieren eine politische Öffentlichkeit. Zusätzlich(!) müssen wir konstatieren, dass es eher Technokraten sind, die den input für der KI (Optimierungsvorgaben und Trainingsdaten) designen.

Das zuletzt genannte Argument allein ist jedoch tückisch: Eine Reduktion des Problems auf die Anwendung der Technologie unterschätzt die Tragweite und unterschlägt die Dynamik der technologischen Innovation als (Herrschafts- und Subjektivierungs-) Prozess. Darunter leidet derzeit ein Regulierungsversuch der EU unter dem Namen Artificial Intelligence Act (AIA)19 mit dem Ziel, Rahmenbedingungen für eine „vertrauensvolle KI“ zu schaffen. Laut Gesetzentwurf richtet sich die Notwendigkeit zur Regulierung einer KI-Software daran, ob dieser ein „nicht akzeptables“ oder ein „hohes Risiko“ zugeschrieben wird. Biometrische Identifzierung per KI fällt in die letztgenannte Kategorie und ist weiterhin erlaubt. Die Betreiber müssen lediglich eine hohe Datenqualität und ein Risikomanagement nachweisen, haben Transparenzpflichten gegenüber Nutzenden und müssen eine technische Dokumentation vorlegen.

Soziale-Kredit-Systeme (wie wir sie aus China kennen) gelten vorgeblich als „nicht akzeptabel“ und sollen verboten werden. Dies darf in dieser Konsequenz bezweifelt werden, denn in einzelnen Branchen, wie dem Versicherungswesen sind sie modular bereits seit über drei Jahren im Einsatz – ohne Beanstandung. Die oben diskutierte Emotionserkennung gilt als Anwendungsgebiet mit „begrenztem Risiko“. Hier müssen die Nutzerinnen lediglich darauf hingewiesen werden, dass solche automatisierten Systeme zur Anwendung kommen. Es ist davon auszugehen dass der Regulierungsversuch ins Leere laufen wird, da die zu kontrollierenden Unternehmen selbst die Abschätzung der gesellschaftlichen Folgen vornehmen sollen und die EU großes Interesse bekundet, die Entwicklung von KI-Systemen mit dem AIA nicht behindern zu wollen. Was bleibt ist eine Art EU-Gütesiegel, von dem sich die EU einen Wettbewerbsvorteil erhofft – im geradezu erdrückenden Konkurrenzkampf mit den deutlich investitionsstärkeren USA und China.

Zurück zur Willensfreiheit und der darauf basierenden politischen Willensbildung. Es ist eine irrige Annahme, die künstlich intelligente Assistenz könne uns doch wenigstens die kleinen Entscheidungen abnehmen, während wir das ‚Wesentliche‘ (völlig unbeeindruckt) weiter selbst entscheiden. Es sind die vielen Erwägungen bereits vollzogener Entscheidungsprozessse, die eine Verschränkung mit aktuell zu entscheidenden Fragestellungen bilden. Dieser Erfahrungsschatz fehlt auch als neurologischer Hintergrund und ist insofern als Lücke ‚mitentscheidend‘.

In der Konsequenz verengt und reduziert die automatisierte Assistenz unsere Willensfreiheit – und das nicht allein über eine konkrete Entfähigung in den Bereichen, denen wir uns ‚dank‘ digitaler Assistenz nicht mehr widmen (müssen).20 Es findet überdies eine Gewöhnung an einen psychotechnologischen Paternalismus statt. Der Sog der Nützlichkeit einer omnipräsenten digitalen Assistenz wirkt einer selbstbewussten Eigenständigkeit entgegen. Der Preis für die bequeme Bevormundung ist deutlich höher als trivialer Weise anzunehmen. Dem Nudging-Verwöhnten werden über die Einschränkung der Willensfreiheit viel weitergehende Fähigkeiten abtrainiert, die Hannah Arendt als konstitutiv für politisches Handeln nennt: Die Fähigkeit zu reflektieren und aktiv im Sinne eines Gemeinwohls zu partizipieren, um darüber neue Formen des Gemeinsinns zu imaginieren. Antoinette Rouvroy sieht in einer algorithmischen Gouvernementalität gar den Tod der Politik21.

Wie also umgehen mit der Übergriffigkeit einer die Willensbildung beschneidenden und damit entpolitisierenden KI im Rahmen von automatisierter Assistenz?

Boosting statt Nudging

Zur Bewahrung einer größtmöglichen Autonomie gilt es, sich der Logik der KI zu widersetzen und im utilitaristischen Sinne nutzlos zu sein. Der digitalen Assistenz, keine (verwertbaren) Daten zu liefern, könnte eine mögliche Übersetzung dessen auf praktischer Ebene sein. Wir können nach Methoden des experimentellen Hackings digitaler Assistenten suchen und unsere Nutzung dieser Dienste in größtmöglichem Umfang verweigern. Nudging sollte deutlicher als Wiedergänger des längst überwunden geglaubten, negativ konnotierten Behaviorismus geoutet werden. Wie lassen sich Entwicklerinnen (wie Frances Haugen) animieren, ihr Wissen über die intransparenten Algorithmen als Whistleblowerinnen zu veröffentlichen? Erst in einem diskursiv zu erzeugenden Klima der gesellschaftlichen Ächtung könnte sich die Verhaltenspsychologie plakativ vom automatisierten nudging verabschieden und ihren parallelen Zweig, das boosting (engl.: verstärken) in den Vordergrund stellen. Was ist ein boost?22

Dazu ein Beispiel: 1995 gab das UK Committee on Safety of Medicines eine Warnung zur empfängnisverhütenden Pille der dritten Generation heraus. Die Warnung war, dass die Pille der dritten im Vergleich zur zweiten Generation das Risiko für eine potenziell lebensgefährliche Thrombose verdoppelt. Diese Information löste eine massive Abkehr von der Pille aus und führte zu geschätzt 13.000 zusätzlichen Abtreibungen im darauffolgenden Jahr in England und Wales. Die Information des Committees war zwar korrekt: Nunmehr zwei statt zuvor eine Frau von 7000 erkrankten im statistischen Mittel an Thrombose. Wäre jedoch zusätzlich das absolute Erkrankungsrisiko kommuniziert worden, wären vermutlich einige Frauen zu einer anderen Risikoabschätzung gekommen.

Der boost des Gesundheitsministeriums bestand nun in einer einfachen diskursiven Intervention, nämlich in der öffentlichkeitswirksamen Verbreitung des simplen ‚Tipps‘: ‚Immer wenn von einem relativen Risiko gesprochen wird, frage zusätzlich nach den absoluten Zahlen‘ – und treffe erst dann deine Risikoabschätzung.

Zum Vergleich: Nudging unterläuft die Autonomie und zielt auf das unmittelbare Verhalten ab, nutzt (heimlich) kognitive Defizite des Menschen und geht davon aus, dass dessen kognitive Verfasstheit also auch dessen Entscheidungskompetenz grundsätzlich nicht veränderbar sind. Das boosting hingegen fördert Kompetenzen durch Änderungen von Fertigkeiten oder der externen Rahmenbedingungen. Boosts gehen damit explizit von der Veränderbarkeit der kognitiven Architektur aus. Boosts sollen nicht das Verhalten eines Individuums in eine bestimmte Richtung lenken, sondern sollen helfen, Entscheidungen im Einklang mit den eigenen Überzeugungen zu treffen. Boosts setzen auf die Einwilligung und Kooperation des Individuums und sind daher notwendigerweise transparent – anders als nudges. Es geht beim boosting um die Förderung vorhandener oder die Entwicklung neuer Kompetenzen, damit selbstbewusste Entscheidungen getroffen werden können.

Das nudging hat nur während des Stupsens einen Effekt. Danach geht das Verhalten der Angestupsten auf den vorherigen Zustand zurück – andernfalls müsste der nudge permanent auf das Individuum einwirken. Das boosting hingegen soll das Individuum dauerhaft befähigen und daher sollte der Effekt auch über die Intervention (z.B. die Aufklärungskampagne) hinaus bestehen bleiben.

Guido Arnold ist promovierter Physiker und arbeitet im DISS zum Thema digitalisierte Biopolitik.

1 Gaspard Koenig, Das Ende des Individuums, Galini Berlin 2021. Seine politischen Folgerungen aus der akribischen Zusammenstellung von über 100 Interviews mit führenden Wissenschaftlerinnen teile ich hingegen nicht vollumfänglich.

2 Kahneman, Schnelles Denken, langsames Denken, Siedler, 2012

3 Sheng Li, Stephen D Mayhew, Zoe Kourtzi, Lerning Shapes the Representation of Behavioral Choice in the Human Brain. In: Neuron, Volume 62, No. 3, 2009

4 Matthias Schultze-Kraft, The Point of No Return in Vetoing Selfinitiated Movements. In: Proceedings in the National Academy of Sciences, Vol. 113, No 4, 2016

5 Auch diese Variante gibt es in Form einer autoritären Paternalismus, den wir nicht alleinig in den Soziale-Punktesysteme Chinas, sondern auch in diversen Zukunftsmodellen der Forschungsabteilung Google X wiederfinden.

6 Cass Sunstein, Richard Thaler, Nudge – Wie man kluge Entscheidungen anstößt, Econ, 2009

7 Frances Haugen Facebookfiles, Wall Street Journal, 20.10.2021, https://www.wsj.com/articles/the-facebook-files-11631713039 – gute Auswertung in der Artikelserie der Süddeutschen Zeitung: https://www.sueddeutsche.de/thema/Facebook_Files

8 Es ist kommunikationstheoretisch ein ernsthaftes Problem, dass viele Plattformen als Verstärker mit nahezu unbegrenzter Reichweite konzipiert sind, der algorithmisch dafür sorgt, dass sich „mit Wut und Hass gespickte Lügen in den sozialen Medien schneller und weiter als Fakten“ verbreiten, so die Friedensnobelpreisträgerin und Journalistin Maria Ressa. Die Whistleblowerin Frances Haugen schlägt vor, künstliche ‚Reibung‘ als Begrenzung einzufügen: Freunde und Freunde von Freunden könnten dann Beiträge einfach wie bisher per Klick weiterverbreiten. Alle weiter entfernten Personen müssten jedoch den Beitrag erst kopieren und einfügen. Alternativ könnte eine kurze Wartezeit eingebaut werden, um Menschen dazu zu bringen, den Artikel erst zu lesen, bevor sie ihn teilen. Bis zu 35 Prozent der Inhalte, die Menschen auf Facebook sehen, sind sogenannte re-shares, also geteilte Inhalte.

Dieser Artikel stammt aus dem DISS-Journal 43 vom Mai 2022. Die vollständige Ausgabe als PDF finden Sie hier.

9 Das Projekt City Brain des chinesischen Software-Konzerns Alibaba ist derzeit der umfassendste Ansatz.

10 Jeremy Bentham, Introduction to the Principles of Morals and Legislation, 1789

11 Bernard Stiegler, Von der Biopolitik zur Psychomacht – Die Logik der Sorge I.2, Suhrkamp, 2009

12 Byung Chul Han, Psychopolitik – Neoliberalismus und die neuen Machttechniken, S.Fischer, 2014, S.51

13 Ebda, S. 67

14 sogenannte mood-tracker

15 https://netzpolitik.org/2021/emotionale-ki-berechnete-gefuehle/

16 Guido Arnold, Solutionistisches Bevölkerungsmangement – Programmatische Ungleichbehandlung durch BigData und Künstliche Intelligenz, zeitschrift kulturrevolution #81

17 Ebda, S.104

18 Zyenep Tufekci, Engineering the public – big data, surviellance and computational politics, 2014, http://doi.org/10.5210/fm.v19i7.4901

19 https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf

20 Die Verbreitung von Navigationssystemen geht wie zu erwarten einher mit einer drastischen Orientierungsschwäche wenn diese Assitenten gerade nicht zur Verfügung stehen.

21 https://www.greeneuropeanjournal.eu/algorithmic-governmentality-and-the-death-of-politics/

22 https://www.verbraucherforschung.nrw/sites/default/files/2019-12/bzv10-02-Herzog-Hertwig-Kompetenzen-mit-Boosts-staerken.pdf