Wie Facebook manipuliert

Wie Facebook manipuliert: Eine Infographik von Dr. Christoph von Gamm

Interaktive Analyse: Facebooks Algorithmische Macht

Die Architektur der Beeinflussung

Eine interaktive Analyse von Facebooks algorithmischer Macht

Das "Emotional Contagion"-Experiment

Die Grundlage der Debatte ist kein Verdacht, sondern ein wissenschaftlich dokumentierter Fakt. Im Jahr 2014 manipulierte Facebook gezielt den Newsfeed von hunderttausenden Nutzern, um die Hypothese der "emotionalen Ansteckung" zu testen. Das Ergebnis war eindeutig.

Anzahl der unwissenden Teilnehmer

689.003

Durch die Reduzierung positiver oder negativer Beiträge im Feed konnte Facebook die emotionale Tonalität der von den Nutzern selbst verfassten Beiträge statistisch signifikant steuern. Dies ist der empirische Beweis, dass die technische Möglichkeit zur massenhaften Stimmungsmanipulation existiert.

Die Engagement-Maschine

Der Algorithmus ist kein neutraler Kurator, sondern ein auf Profit optimiertes System. Sein Ziel ist die Maximierung der Nutzerbindung ("Engagement"), um Werbeeinnahmen zu steigern. Dies erzeugt eine systemische Verzerrung (Bias).

1. Dateneingabe: Jede Interaktion (Like, Share, Verweildauer) wird erfasst.

2. Algorithmische Bewertung: Inhalte, die starke emotionale Reaktionen hervorrufen, erhalten eine höhere Relevanzbewertung.

3. Verstärkung & Ausspielung: Emotionalisierende und polarisierende Inhalte werden priorisiert und einer größeren Nutzergruppe angezeigt.

4. Feedback-Schleife: Erhöhte Sichtbarkeit führt zu mehr Interaktionen, was die ursprüngliche Bewertung bestätigt und den Zyklus verstärkt.

Priorisierung von Inhalten

Die Optimierung auf Engagement führt dazu, dass Inhalte nicht nach Wahrheitsgehalt oder gesellschaftlichem Nutzen, sondern nach ihrem Potenzial zur Provokation von Reaktionen gewichtet werden.

Dies erklärt die virale Verbreitung von Desinformation und extremistischen Inhalten, die oft stärkere emotionale Reaktionen hervorrufen als moderate oder faktenbasierte Berichterstattung.

Eskalation der Einflussnahme

Die technische Möglichkeit entwickelte sich über ein Jahrzehnt zu einem soziopolitischen Machtinstrument. Wählen Sie ein Ereignis aus, um Details anzuzeigen.

Wählen Sie einen Punkt auf der Zeitleiste.

___2014: Emotional Contagion

___2016: Cambridge Analytica

___2020: Pandemie & Wahlen

___2021: Frances Haugen Leaks

___2023: EU-Regulierung

___2024: KI & externe Partner

Theoretische Einordnung

Die Funktionsweise des Algorithmus lässt sich als moderne Form der Machtausübung verstehen, wie sie von Denkern wie Michel Foucault und Bruno Latour beschrieben wurde.

Michel Foucault: Algorithmische Gouvernementalität

Der Algorithmus etabliert eine Form des "Regierens", die nicht auf direkten Verboten, sondern auf der Steuerung von Sichtbarkeit basiert. Er schafft ein "Dispositiv der Wahrheit", indem er bestimmt, welche Informationen und Meinungen als relevant und sichtbar gelten. Nutzer unterwerfen sich dieser unsichtbaren Macht, indem sie ihr Verhalten anpassen, um im System sichtbar zu bleiben (Selbstdisziplinierung). Es ist eine subtile, aber extrem wirksame Form der biopolitischen Kontrolle über die Meinungsbildung der Bevölkerung.

Bruno Latour: Der Algorithmus als Akteur

Innerhalb der Akteur-Netzwerk-Theorie ist der Algorithmus kein passives Werkzeug, sondern ein eigenständiger, nicht-menschlicher Akteur mit Handlungsmacht. Er agiert als "Blackbox", die die Intentionen seiner Schöpfer (Profit), externer Partner (politische Ziele) und der Nutzer (Wunsch nach sozialer Bestätigung) in eine neue, sortierte Realität übersetzt. Er verhandelt und stabilisiert Machtverhältnisse im Netzwerk, indem er festlegt, wer mit wem und mit welchen Informationen verbunden wird.

Fragen Sie die ✨KI✨!

Generieren Sie eine detailliertere Erklärung, wie die Theorien von Foucault oder Latour mit den Fakten dieser Analyse verbunden sind.

Klicken Sie auf einen der Buttons, um eine KI-generierte Erklärung zu laden.

Manipuliert Facebook?

Die Macht der Algorithmen: Wie Facebook die öffentliche Meinung formt

Die unsichtbare Hand

Wie Facebooks Algorithmus die öffentliche Meinung formt

Ein Experiment. Ein Beweis.

Im Jahr 2014 führte Facebook ein Experiment zur "emotionalen Ansteckung" durch. Ohne deren Wissen wurde der Newsfeed von...

689.003

...Nutzern manipuliert, um zu sehen, ob sich ihre Stimmung ändert. Das Ergebnis war eindeutig: Ja. Die gezielte Ausspielung positiver oder negativer Inhalte beeinflusste direkt die von den Nutzern selbst verfassten Beiträge.

Der Mechanismus: Die Engagement-Maschine

Der Algorithmus ist keine neutrale Instanz. Sein primäres Ziel ist es, die Verweildauer der Nutzer zu maximieren, um mehr Werbeanzeigen auszuspielen. Dies wird durch die Optimierung auf "Engagement" (Likes, Kommentare, Shares) erreicht. Inhalte, die starke emotionale Reaktionen hervorrufen – insbesondere Wut und Empörung – sind hierfür am effektivsten.

1. Nutzer postet oder interagiert

2. Algorithmus analysiert Inhalt & Reaktion

(emotional, polarisierend?)

3. Priorisierung von emotionalen Inhalten

Inhalte, die starke Reaktionen auslösen, werden mehr Nutzern gezeigt.

4. Erhöhte Sichtbarkeit & mehr Interaktion

(Feedback-Schleife)

Eine Dekade der Einflussnahme: Zeitstrahl

2014: Emotional Contagion

Facebook beweist, dass Stimmungsmanipulation im großen Stil technisch möglich ist.

2016: Cambridge Analytica

Der Skandal zeigt, wie algorithmische Zielgruppenansprache zur politischen Beeinflussung bei der US-Wahl und dem Brexit-Votum genutzt wurde.

2020: COVID-19 & US-Wahl

Facebook unterdrückt aktiv als "Fehlinformation" eingestufte Inhalte und priorisiert offizielle Narrative, während gleichzeitig polarisierende politische Gruppen viral gehen.

2021: Frances Haugen Leaks

Die Whistleblowerin belegt mit internen Dokumenten, dass Facebook weiß, wie schädlich sein auf Wut optimierter Algorithmus ist, aber aus Profitgründen daran festhält.

2023/24: Regulierung & KI

EU-Gesetze erzwingen mehr Transparenz. Meta setzt verstärkt auf KI-Moderation in Kooperation mit externen Partnern, was die Frage aufwirft, wer letztlich die Regeln für den öffentlichen Diskurs bestimmt.

Die Linse der Theorie: Macht und Kontrolle

Die Mechanismen von Facebook lassen sich durch die Theorien von Michel Foucault und Bruno Latour analysieren. Sie zeigen, dass es nicht um eine simple "Zensur" geht, sondern um eine tiefgreifende Form der Machtausübung.

Foucault: Das algorithmische Panoptikum

Der Algorithmus agiert wie ein modernes Panoptikum – eine Struktur der Überwachung. Nutzer wissen nicht genau, wann oder warum ihre Inhalte sichtbar gemacht oder unterdrückt werden. Diese Unsicherheit führt zur Selbstdisziplinierung und Anpassung an die unsichtbaren Regeln der Plattform. Die Macht liegt nicht im Verbot, sondern in der Steuerung der Sichtbarkeit und der Definition dessen, was als "relevante" Information gilt.

Latour: Der Algorithmus als Akteur

In der Akteur-Netzwerk-Theorie ist der Algorithmus kein passives Werkzeug, sondern ein mächtiger nicht-menschlicher Akteur. Er übersetzt die Interessen von Werbekunden (Engagement), Regierungen (Kontrolle) und Ingenieuren (Effizienz) in eine sortierte Realität für Milliarden von Nutzern. Er ist ein "Blackbox"-Akteur, dessen interne Logik die Beziehungen und Machtverhältnisse im gesamten Netzwerk neu verhandelt.

Priorität: Emotion

Der Algorithmus bevorzugt Inhalte, die eine Reaktion provozieren, gegenüber neutralen Informationen.

Formen der algorithmischen Steuerung

Die Einflussnahme ist vielschichtig. Sie reicht von bewiesenen Experimenten über die profitgetriebene Bevorzugung von Polarisierung bis hin zu gezielten politischen Interventionen durch die Anpassung von Regeln.

Fazit & Quellen

Die Frage ist nicht mehr, *ob* Facebook die Stimmung von Massen beeinflussen kann, sondern *wie* und nach wessen Agenda dies geschieht. Die technische Möglichkeit ist bewiesen, die kommerziellen Anreize zur Polarisierung sind bekannt und die Kooperationen mit externen Akteuren sind dokumentiert. Der Algorithmus ist damit ein zentrales Instrument biopolitischer Macht im 21. Jahrhundert, das den öffentlichen Diskurs nicht nur abbildet, sondern aktiv formt.

Quellen und weiterführende Literatur:

  • Kramer, A. D. I., Guillory, J. E., & Hancock, J. T. (2014). Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences, 111(24).
  • Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.
  • Haugen, F. (2021). The Facebook Files & Testimony before the U.S. Senate.
  • Van Dijck, J. (2013). The Culture of Connectivity: A Critical History of Social Media. Oxford University Press.
  • Cadwalladr, C., & Graham-Harrison, E. (2018). The Cambridge Analytica Files. The Guardian.

Das algorithmische Kollektiv: Zur Stimmungssteuerung im soziotechnischen Netzwerk von Meta

.

.

 

 

Executive Summary: Die Ambivalenz der algorithmischen Macht

 

Der vorliegende Bericht analysiert die komplexe Frage, ob der Facebook-Algorithmus gezielt die Stimmung von Massen steuert. Die Untersuchung, gestützt auf interne Dokumente und externe Fallstudien, legt dar, daß die technische Fähigkeit zur Stimmungsbeeinflussung nicht nur gegeben, sondern auch empirisch nachgewiesen ist. Die tatsächliche Steuerung manifestiert sich jedoch selten in Form eines direkten "Knopfdrucks", sondern resultiert aus einem vielschichtigen Zusammenspiel: der inhärenten, auf Engagement optimierten Logik des Algorithmus, dem primär wirtschaftlichen Eigeninteresse der Plattform und der reaktiven Anpassung an politischen Druck von externen Akteuren wie Staaten und Nichtregierungsorganisationen. Eine theoretische Einordnung mittels Bruno Latours Akteur-Netzwerk-Theorie (ANT) und Michel Foucaults Konzepten von Panoptismus und Biopolitik offenbart, daß der Algorithmus selbst ein aktiver „Aktant“ ist, der das soziale Gefüge substanziell strukturiert. Die Plattform übt dadurch eine neue, subtile Form der Macht über die kollektive Stimmung der Bevölkerung aus. Es wird argumentiert, daß die eigentliche Absicht nicht in der situativen Manipulation liegt, sondern in der bewussten Gestaltung eines Systems, das Polarisierung und emotionale Reaktionen als unvermeidliche Nebenprodukte seiner Effizienz fördert.

 

Einleitung: Die Algorithmus-Frage als soziotechnisches Problem

 

Die Ausgangsfrage, ob Facebook in der Lage ist, die Stimmung von Massen nach Belieben zu manipulieren, ist weit mehr als eine simple technologische Fragestellung. Sie berührt grundlegende Aspekte der sozialen Kontrolle, der politischen Meinungsbildung und der ethischen Verantwortung von Technologiekonzernen. Das vorliegende Dokument formuliert die zentrale These, daß Facebook technisch und empirisch dazu in der Lage ist, eine gezielte Stimmungsbeeinflussung durchzuführen, auch wenn ein direkter, bewusster "Knopfdruck" durch Dritte schwerer zu belegen ist.1 Um diese Komplexität zu erfassen, muss die Analyse über ein einfaches Täter-Opfer-Narrativ hinausgehen. Der Fokus verschiebt sich von der singulären Absicht menschlicher Akteure hin zur Struktur und Logik des soziotechnischen Systems selbst.

In dieser Untersuchung wird dargelegt, daß der Facebook-Algorithmus nicht als neutrales Werkzeug, sondern als ein integraler Bestandteil eines komplexen Netzwerks von menschlichen und nicht-menschlichen Entitäten fungiert. Die Interaktion zwischen der Systemarchitektur, den Nutzern und externen Einflüssen schafft eine Dynamik, die Stimmungssteuerung nicht nur ermöglicht, sondern in gewisser Weise systematisch hervorbringt. Um diese Dynamik zu verstehen, wird der analytische Rahmen durch zwei prominente Denker der kritischen Theorie erweitert: Bruno Latour und Michel Foucault. Latours Akteur-Netzwerk-Theorie (ANT) bietet die Möglichkeit, das Zusammenspiel von Menschen und Technologien als gleichwertige Akteure in einem gemeinsamen Netzwerk zu betrachten. Foucaults Konzepte von Macht, Wissen, Panoptismus und Biopolitik ermöglichen es, die subtilen Mechanismen der sozialen Kontrolle zu beleuchten, die im Hintergrund der algorithmischen Operationen wirken.

 

Teil I: Empirische Analyse – Der Algorithmus als Werkzeug der Einflussnahme

 

1. Nachweisliche Mechanismen der Stimmungssteuerung

 

1.1 Das "Emotional Contagion"-Experiment (2014): Der wissenschaftliche Beweis

 

Einer der frühesten und am meisten diskutierten Belege für die Fähigkeit von Facebook, die Stimmung seiner Nutzer zu beeinflussen, ist das 2014 durchgeführte „Emotional Contagion“-Experiment.1 In dieser Studie manipulierte Facebook die Newsfeeds von fast 689,003 Nutzern über einen Zeitraum von einer Woche, indem entweder die Anzahl der positiven oder negativen emotionalen Beiträge reduziert wurde.2 Die Ergebnisse waren eindeutig: Nutzer, deren Newsfeed vermehrt negative Inhalte enthielt, begannen, selbst mehr negative Inhalte zu posten, während jene mit einem positiven Feed mehr positive Beiträge verfassten.2 Die Studie, veröffentlicht in den

Proceedings of the National Academy of Science (PNAS), lieferte den ersten wissenschaftlichen Beweis, daß Stimmungen durch die Online-Umgebung systematisch beeinflusst und übertragen werden können, ohne daß sich die Nutzer dessen bewusst sind.2

Die Veröffentlichung des Experiments löste massive ethische Debatten aus, da es ohne die informierte Zustimmung der Teilnehmer durchgeführt wurde.3 Kritiker argumentierten, daß die Forschung ethische Grundprinzipien verletzte, die seit den 1940er Jahren für Experimente an Menschen gelten.4 Die Enthüllung, daß ein privates Unternehmen die Emotionen seiner Nutzer gezielt manipulieren konnte, schuf eine gesellschaftliche Schockwelle, da sie die subtile, unsichtbare Macht über menschliche Gefühle offenlegte. Für Facebook selbst war das Experiment jedoch weit mehr als nur eine wissenschaftliche Studie. Es diente als Nachweis der technischen Machbarkeit der Stimmungssteuerung. Aus einem psychologischen Experiment wurde ein Proof-of-Concept, der das Potenzial der Plattform aus rein wirtschaftlicher Sicht legitimierte.

 

1.2 Die Logik der Engagement-Maximierung: Systematischer Bias und Profitstreben

 

Die Grundlage der algorithmischen Stimmungsbeeinflussung liegt in einem Kernprinzip der Plattform: der Optimierung auf Engagement. Wie im vorliegenden Dokument dargelegt, bevorzugt der Algorithmus Inhalte, die starke Reaktionen auslösen, da diese die Verweildauer der Nutzer auf der Plattform erhöhen.1 Interne Studien, die durch die Whistleblowerin Frances Haugen im Jahr 2021 an die Öffentlichkeit gelangten, bestätigen diese Dynamik.5 Haugen, eine ehemalige Produktmanagerin bei Facebook, enthüllte, daß das Unternehmen sich intern bewusst war, daß Änderungen am Algorithmus ab 2018 die Verbreitung von wütenden, spaltenden und polarisierenden Inhalten verstärkten.5 Die Enthüllungen zeigten, daß die Plattform die negativen Auswirkungen ihrer Algorithmuslogik auf die Gesellschaft und die psychische Gesundheit von Nutzern kannte, aber die Strategie der Aufmerksamkeitsmaximierung beibehielt, weil sie sich als profitabler erwies.6

Diese Dynamik verdeutlicht eine direkte kausale Kette: Die algorithmische Logik ist darauf ausgerichtet, emotionale Reaktionen zu maximieren, da diese zu höherem Engagement führen. Höheres Engagement wiederum maximiert die Werbeeinnahmen.5 Stimmungsmanipulation ist demnach kein unbeabsichtigter Nebeneffekt, sondern ein integraler, profitbasierter Bestandteil des Geschäftsmodells. Die Enthüllungen verschieben die Diskussion von der technischen Möglichkeit hin zur ethischen und unternehmerischen Verantwortung und liefern einen direkten Beleg für eine Absicht auf einer makroökonomischen Ebene.

 

2. Indirekte Einflussnahme in der Praxis: Fallstudien der Manipulation

 

2.1 Politische Mikrotargetings: Der Cambridge Analytica-Skandal (2016)

 

Der Cambridge Analytica-Skandal im Jahr 2016 zeigte öffentlich, wie die Infrastruktur von Facebook von Dritten zur politischen Manipulation genutzt werden kann.8 Die Datenanalysefirma nutzte Daten von bis zu 87 Millionen Facebook-Nutzern, um psychometrische Profile zu erstellen.8 Auf Basis dieser Profile wurden Wähler in den USA und Großbritannien gezielt mit personalisierten, hoch emotionalen Botschaften angesprochen, um ihr Wahlverhalten zu beeinflussen.8 Der Skandal verdeutlichte, wie die Plattform von externen Akteuren als Waffe genutzt werden kann, um Wählerstimmungen in Demokratien zu beeinflussen.1

Obwohl der Skandal die Möglichkeit der politischen Stimmungsbeeinflussung durch Dritte unterstrich, fügt eine externe Studie eine wichtige Nuance hinzu: Psychometrisches Mikrotargeting kann zwar positive Gefühle gegenüber einem Kandidaten hervorrufen, hatte aber keinen signifikanten Einfluss auf die tatsächliche Wahlabsicht.11 Dies deutet darauf hin, daß die

Wirkung der Manipulation komplex und schwer messbar ist, unabhängig von der Absicht und den technischen Möglichkeiten.

 

2.2 Hasspropaganda und ethnische Konflikte: Myanmar (2017)

 

Ein weiteres, tragisches Beispiel für die Auswirkungen des Algorithmus ist die Rohingya-Krise in Myanmar im Jahr 2017. Berichte von Amnesty International und anderen Organisationen belegen, daß der Facebook-Algorithmus Hassbotschaften und gewalttätige Propaganda gegen die muslimische Minderheit ungebremst verbreitete, was wesentlich zur Eskalation ethnischer Gewalt beitrug.12 Die Vereinten Nationen warfen Facebook eine "entscheidende Rolle" im Massaker vor.1

Im Gegensatz zum Cambridge-Analytica-Skandal, der auf externer Ausnutzung beruhte, war die Katastrophe in Myanmar das Ergebnis eines systemischen Versagens. Das auf Engagement optimierte System agierte als aktiver Verstärker extrem polarisierender und gewalttätiger Inhalte, ohne daß eine direkte, externe Willensentscheidung vorlag.13 Dieses Beispiel zeigt, daß Stimmungsmanipulation nicht immer eine bewusste Steuerung erfordert, sondern auch als emergente Eigenschaft der Systemlogik mit katastrophalen Folgen entstehen kann.1 Die Plattform war nicht nur ein passiver Übermittler, sondern ein aktiver Mitverursacher der Gewalt.

 

2.3 Stimmungslenkung in Krisenzeiten: Wahlen, Pandemien, Kriege

 

Die Zeitleiste der vergangenen Jahre zeigt eine bemerkenswerte Entwicklung in der Beziehung zwischen Facebook und staatlichen Akteuren. Aus anfänglicher heimlicher Manipulation (2014) und externer Ausnutzung (2016) wurde eine offene, institutionalisierte Steuerung. Das Dokument beschreibt die enge Kooperation von Facebook mit Regierungen und Organisationen wie der Weltgesundheitsorganisation (WHO).1 Während der Corona-Pandemie wurden „offizielle“ Informationen algorithmisch priorisiert, während abweichende Meinungen heruntergestuft oder mit Warnhinweisen versehen wurden.1 Diese "Content-Priorisierungen" dienen offiziell der Bekämpfung von Desinformation, kommen de facto aber einer gezielten Steuerung des öffentlichen Meinungskorridors gleich.

Die Leaks von Frances Haugen belegen zudem, daß interne Studien der Plattform messbare Auswirkungen von Algorithmusänderungen auf die politische Stimmungslage feststellten.5 Das Unternehmen wurde sich dadurch bewusst, daß seine Infrastruktur nicht nur als Kommunikationsmedium, sondern als ein mächtiges Instrument zur kollektiven Stimmungsregulierung fungiert. Diese Entwicklung führt dazu, daß die Grenze zwischen der privaten Unternehmenslogik und staatlicher Einflussnahme verschwimmt. Externe Akteure müssen nicht mehr heimlich agieren, um eine Stimmungsverschiebung zu bewirken, sondern werden zu "Partnern" des Algorithmus, um ihre Willensentscheidungen subtil durchzusetzen.

 

Übersicht zentraler Ereignisse zur Algorithmus-Debatte

 

Ereignis Jahr Beschreibung & Funktion
„Emotional Contagion“-Experiment 2014 Erster wissenschaftlicher Beweis, daß Facebook Gefühle gezielt steuern kann.
Cambridge Analytica-Skandal 2016 Externe Akteure nutzen Faceboos Infrastruktur zur politischen Manipulation.
Myanmar & Rohingya-Krise 2017 Systemversagen des Algorithmus verstärkt Hasspropaganda und ethnische Gewalt.
Corona-Pandemie 2020 Offene Kooperation mit Regierungen und WHO zur Steuerung des Meinungskorridors.
Frances Haugen Leaks 2021 Interne Dokumente belegen, daß das Unternehmen die negativen Auswirkungen seiner Algorithmuslogik auf die Gesellschaft kennt.

Teil II: Theoretische Verortung – Das Phänomen im Kontext kritischer Theorie

 

3. Das Netzwerk als Akteur: Eine Latourianische Perspektive

 

3.1 Akteur-Netzwerk-Theorie (ANT): Ein Rahmen für die Analyse

 

Bruno Latours Akteur-Netzwerk-Theorie (ANT) bietet einen analytischen Rahmen, der die Frage nach der Stimmungssteuerung neu formuliert. Anstatt sich auf die Handlungen einzelner menschlicher Akteure zu konzentrieren, betrachtet die ANT soziale Phänomene als das Ergebnis von Netzwerken, in denen menschliche und nicht-menschliche "Aktanten" interagieren.14 Ein Aktant, sei es ein Mensch, ein Computer, ein Dokument oder ein Algorithmus, ist jede Entität, die in der Lage ist, eine Handlung auszuführen, indem sie eine andere Entität verändert oder beeinflusst.16 Das Netzwerk als Ganzes ist somit die eigentliche handelnde Entität. Latour unterscheidet dabei zwischen "Zwischengliedern" (intermédiaires), die lediglich als passive Übermittler in einer Kausalkette fungieren, und "Mittlern" (médiateurs), die aktiv Handlungen übersetzen und transformieren.17

 

3.2 Der Facebook-Algorithmus als handlungsmächtiger Aktant

 

Aus einer Latourianischen Perspektive ist der Facebook-Algorithmus kein passives "Zwischenglied", sondern ein aktiver "Mittler" und ein zentraler Aktant in einem komplexen soziotechnischen Netzwerk.17 Er ist nicht nur ein Werkzeug, das von Menschen benutzt wird, sondern eine Entität, die selbst Handlungen vollzieht. Er "übersetzt" das menschliche Verlangen nach Aufmerksamkeit, Gemeinschaft und Zugehörigkeit in eine Ökonomie des Engagements.1 Er wandelt einfache Klicks, Shares und Verweildauer in eine algorithmische Präferenz für polarisierende Inhalte um 5, die er wiederum mit exponentieller Reichweite belohnt.

Diese Perspektive verschiebt die Frage von „Wer ist schuld an der Stimmungsmanipulation?“ hin zu „Wie handelt das soziotechnische Netzwerk?“. Die Stimmungssteuerung wird als eine emergente Eigenschaft des Netzwerks selbst verstanden. Dieses Netzwerk besteht aus menschlichen Aktanten (Nutzern, Meta-Mitarbeitern, Politikern, Journalisten), nicht-menschlichen Aktanten (Algorithmus, Server, Werbeanzeigen) und wirtschaftlichen Kräften (Profitmaximierung).17 Die "Absicht" liegt somit nicht in einem direkten Befehl von außen, sondern ist in der Architektur des gesamten Netzwerks "eingeschrieben". Der Algorithmus, beeinflusst durch die ökonomische Logik, agiert als zentraler Knoten, der die Handlungen der menschlichen Aktanten durch Anreize wie Likes und Shares neu strukturiert.1

 

4. Das Dispositiv der Kontrolle: Foucaults Analyse der Macht und des Subjekts

 

4.1 Panoptismus und Biopolitik: Neue Formen der Machtausübung

 

Michel Foucaults Werk bietet einen weiteren analytischen Zugang, um die Dynamiken der algorithmischen Stimmungssteuerung zu verstehen. Foucault argumentierte, daß sich moderne Macht nicht primär durch Repression, sondern durch die Herstellung von Wissen und die Produktion von Normalität auszeichnet.18

Das Konzept des Panoptismus, abgeleitet von Jeremy Benthams Panopticon-Gefängnismodell, beschreibt einen Überwachungsmechanismus, bei dem die Subjekte in der ständigen, aber unsicheren Erwartung leben, beobachtet zu werden. Dies führt zu einer internalisierten Selbstdisziplinierung und Selbstkontrolle.20

Die Biopolitik beschreibt eine Form der Macht, die nicht einzelne Körper diszipliniert, sondern die Bevölkerung als eine statistisch erfassbare, biologische Entität verwaltet und optimiert.22 Diese Macht hat einen "positiven" Einfluss; sie ist nicht darauf aus, Leben zu nehmen, sondern es zu "fördern, zu organisieren, zu optimieren und zu vermehren", um die Produktivität und Gesundheit der Bevölkerung im Sinne der Staatsräson oder der wirtschaftlichen Interessen zu steigern.22

 

4.2 Der algorithmische Panoptismus und die Biopolitik der Stimmungen

 

Der Facebook-Algorithmus kann als ein digitales Dispositiv der Macht verstanden werden, das auf den Prinzipien des Panoptismus und der Biopolitik beruht. Die Plattform sammelt unaufhörlich Daten – Likes, Verweildauer, Klicks – und schafft so ein umfassendes "Wissen" über ihre Nutzer und deren kollektive Stimmungen.18 Dieses Wissen wird genutzt, um die Bevölkerung nicht als Individuen, sondern als eine statistische Masse zu behandeln, deren kollektive Verhaltensweisen in Echtzeit überwacht und reguliert werden können.

Die Unsichtbarkeit des Algorithmus schafft einen panoptischen Effekt: Nutzer wissen, daß ihr Verhalten ständig überwacht wird, um ihnen "relevante" Inhalte zu präsentieren.17 Dies führt zu einer internalisierten Selbstdisziplinierung, bei der das Verhalten angepasst wird, um mehr Engagement zu erzielen. Foucaults Konzepte helfen zu erklären, warum Menschen beginnen, polarisierende Inhalte zu bevorzugen und zu teilen: Es ist ein verinnerlichter Mechanismus, der sich an die unsichtbare Logik des Systems anpasst.

Die Kontrolle, die der Algorithmus ausübt, ist eine Form der biopolitischen Macht. Sie ist nicht repressiv; sie unterdrückt Meinungen nicht einfach, sondern "fördert" bestimmte Formen des Ausdrucks und der Interaktion, die das Engagement steigern.22 Die Zusammenarbeit mit Regierungen und der WHO während der Corona-Pandemie 1 ist ein perfektes, modernes Beispiel für die biopolitische Verwaltung einer Bevölkerung durch eine soziotechnische Infrastruktur, die im Namen von Sicherheit und Gesundheit das gesellschaftliche Leben optimiert.

 

Empirische Befunde im theoretischen Kontext

 

Empirisches Phänomen Latourianische Interpretation Foucauldianische Interpretation
Emotional Contagion Experiment (2014) Der Algorithmus ist ein "Mittler", der die Emotionen von Nutzern "übersetzt" und in Handlungen umwandelt. Das Experiment beweist die Wirkmächtigkeit des Algorithmus als Aktant. Die Studie zeigt, wie Macht/Wissen (Datenerhebung) dazu verwendet wird, die Stimmung als biopolitisch relevante Variable zu manipulieren.
Logik der Engagement-Maximierung Das Netzwerk aus Algorithmus, Nutzern und Werbeeinnahmen ist der eigentliche Akteur. Seine Logik "schreibt" die Präferenz für Polarisierung in die Struktur ein. Die Macht ist produktiv: Sie fördert die Emotionen, die für das Geschäftsmodell am profitabelsten sind. Die Selbstdisziplinierung der Nutzer entsteht durch den panoptischen Effekt.
Cambridge Analytica-Skandal (2016) Externe Akteure nutzen die Infrastruktur des Netzwerks, um ihre Handlungen durch "psychometrische Profile" zu "übersetzen" und die Wählerschaft neu zu strukturieren. Die Schaffung von psychografischem "Wissen" über Wähler ist eine Form der biopolitischen Kontrolle, um ihre Verhaltensweisen zu optimieren.
Kooperation mit Regierungen/WHO Externe Partner werden in das Netzwerk integriert. Ihre Willensentscheidungen werden durch "Content-Priorisierungen" in die algorithmische Logik "eingeschrieben". Die Plattform wird zu einem Instrument der biopolitischen Verwaltung, die im Namen der öffentlichen Sicherheit bestimmte Meinungen fördert und andere unterdrückt.

Schlussbetrachtung: Zwischen Automatisierung und Absicht

 

Die Analyse der algorithmischen Stimmungssteuerung offenbart ein vielschichtiges Phänomen, das sich nicht in simplen Kategorien erfassen lässt. Die theoretische Synthese der Perspektiven von Bruno Latour und Michel Foucault ermöglicht ein tieferes Verständnis der zugrundeliegenden Mechanismen.

Latour erklärt, wie der Algorithmus als handlungsmächtiger, nicht-menschlicher Aktant das soziotechnische Netzwerk konstituiert und verändert. Es ist das Netzwerk selbst, das die Stimmungen steuert, indem es die Handlungen der menschlichen Aktanten übersetzt und neu strukturiert. Foucault erklärt, warum dieses Handeln eine neue Form der Macht darstellt, die das Subjekt und die Bevölkerung auf subtile Weise kontrolliert. Die Datensammlung schafft ein Wissen über die Masse, das einen panoptischen Effekt erzeugt und die biopolitische Verwaltung der kollektiven Stimmung ermöglicht.

Die Frage, ob Stimmungssteuerung "absichtlich" oder "auf Knopfdruck" erfolgt, ist somit falsch gestellt. Es bedarf keines direkten Befehls, wenn die Architektur des Systems selbst die gewünschten Effekte – Polarisierung, emotionale Verstärkung, Stimmungsverschiebung – als unvermeidliche Nebenprodukte der Effizienz und des Profits generiert. Die eigentliche Absicht liegt nicht in der situativen Manipulation, sondern in der bewussten Gestaltung eines Systems, dessen inhärente Logik die gesellschaftliche Polarisierung vorantreibt.

Die Implikationen dieser Erkenntnisse für die Regulierung, Ethik und das Verständnis von Demokratie im digitalen Zeitalter sind weitreichend. Sie legen nahe, daß die Regulierung nicht nur auf die Verhinderung direkter Manipulation abzielen sollte, sondern auf die grundlegende Architektur der Plattformen und deren Anreizsysteme. Es ist notwendig, das algorithmische Kollektiv nicht als passives Werkzeug, sondern als einen aktiven gesellschaftlichen Akteur zu begreifen, der durch seine eigene Logik das soziale Gefüge formt.

 

 

 

 

Referenzen

  1. 20250910 Zieht Facebook mit seinem Algorithmus absichtlich anhand außen vorgegebener Willensentscheidungen Dritter die Stimmung von Massen rauf oder runter nach Belieben.docx (Stoffsammlung)
  2. News feed: 'Emotional contagion' sweeps Facebook | Cornell Chronicle, Zugriff am September 10, 2025, https://news.cornell.edu/stories/2014/06/news-feed-emotional-contagion-sweeps-facebook
  3. Facebook's Emotional Contagion Experiment as a Challenge to Research Ethics - Cogitatio Press, Zugriff am September 10, 2025, https://www.cogitatiopress.com/mediaandcommunication/article/viewFile/579/436
  4. Facebook study: a little bit unethical but worth it? - PubMed, Zugriff am September 10, 2025, https://pubmed.ncbi.nlm.nih.gov/25740760/
  5. Facebook whistleblower says company incentivizes "angry, polarizing, divisive content" - 60 Minutes - CBS News, Zugriff am September 10, 2025, https://www.cbsnews.com/news/facebook-whistleblower-frances-haugen-60-minutes-polarizing-divisive-content/
  6. «Facebook Files» - Wieso Facebook Hassrede nur halbherzig bekämpft - News - SRF, Zugriff am September 10, 2025, https://www.srf.ch/news/international/facebook-files-wieso-facebook-hassrede-nur-halbherzig-bekaempft
  7. „The Facebook Files“: Wie negativ Instagram Teenagerinnen beeinflussen kann - RND, Zugriff am September 10, 2025, https://www.rnd.de/gesundheit/the-facebook-files-wie-negativ-instagram-teenagerinnen-beeinflussen-kann-GVRHOIHVAJHHRCO63G3QWHXM4Y.html
  8. en.wikipedia.org, Zugriff am September 10, 2025, https://en.wikipedia.org/wiki/Facebook%E2%80%93Cambridge_Analytica_data_scandal
  9. Cambridge Analytica: how did it turn clicks into votes? | Big data - The Guardian, Zugriff am September 10, 2025, https://www.theguardian.com/news/2018/may/06/cambridge-analytica-how-turn-clicks-into-votes-christopher-wylie
  10. Micro-targeting | Privacy International, Zugriff am September 10, 2025, https://privacyinternational.org/learn/micro-targeting
  11. Inside the Voter's Mind: The Effect of Psychometric Microtargeting on Feelings Toward and Propensity to Vote for a Candidate | Krotzek | International Journal of Communication, Zugriff am September 10, 2025, https://ijoc.org/index.php/ijoc/article/view/9605
  12. Myanmar | Facebook-Algorithmen haben Gewalt gegen Rohingya befördert | 29.09.2022, Zugriff am September 10, 2025, https://www.amnesty.de/allgemein/pressemitteilung/myanmar-facebook-algorithmen-haben-gewalt-gegen-rohingya-befoerdert
  13. Report: Facebook Algorithms Promoted Anti-Rohingya Violence - Time Magazine, Zugriff am September 10, 2025, https://time.com/6217730/myanmar-meta-rohingya-facebook/
  14. www.studysmarter.de, Zugriff am September 10, 2025, https://www.studysmarter.de/studium/anthropologie/anthropologie-theorie/akteursnetzwerktheorie/#:~:text=Bruno%20Latour%20war%20ein%20Pionier,interagieren%20und%20soziale%20Prozesse%20beeinflussen.
  15. Aktant - Gedankensplitter, Zugriff am September 10, 2025, https://peter.baumgartner.name/glossary/aktant/
  16. Autorschaft als Akteur-Netzwerk | Uni Bielefeld, Zugriff am September 10, 2025, https://www.uni-bielefeld.de/fakultaeten/linguistik-literaturwissenschaft/personen/lore-knapp/Knapp_Autorschaft-als-Akteur-Netzwerk.pdf
  17. Akteur-Netzwerk-Theorie - Wikipedia, Zugriff am September 10, 2025, https://de.wikipedia.org/wiki/Akteur-Netzwerk-Theorie
  18. Kann mir jemand Foucaults Wissens-Macht-Nexus in einfachen Worten erklären? - Reddit, Zugriff am September 10, 2025, https://www.reddit.com/r/sociology/comments/uwc2e6/can_anyone_explain_foucaults_knowledgepower_nexus/?tl=de
  19. Bruns Wissen – Macht – Subjekt(e). Dimensionen historischer Diskursanalyse am Beispiel des Männerbund, Zugriff am September 10, 2025, https://www.culture.hu-berlin.de/de/institut/kollegium/1683911/publ/bruns-2005-macht-wissen-subjekte.pdf
  20. Macht und Kontrolle im (Super)panopticon - Factline, Zugriff am September 10, 2025, https://www.factline.com/fsDownload/macht%20und%20kontrolle%20im%20panopticon.pdf?id=216812&forumid=326&v=1
  21. Michel Foucault und das Mittelalter? Analysebegriff „Panoptismus“, Zugriff am September 10, 2025, https://mittelalter.hypotheses.org/9281
  22. Michel Foucault: Biopolitics and Biopower - Critical Legal Thinking, Zugriff am September 10, 2025, https://criticallegalthinking.com/2017/05/10/michel-foucault-biopolitics-biopower/

Biopolitics - Wikipedia, Zugriff am September 10, 2025, https://en.wikipedia.org/wiki/Biopolitics

christophvongamm

View posts by christophvongamm
Dr. Christoph von Gamm ist ein Unternehmer, Investor und Business Angel, der sich an der Schnittstelle von Wirtschaft, Kultur und Technologie engagiert. Er ist CEO und Managing Partner von Cybertrue Capital Partners, einer Firma, die sich mit Investitionen und Deals beschäftigt. Zudem ist er CEO von vonGammCom Global, wo er Beratungs- und Executive-Search-Dienstleistungen im Bereich IT-Outsourcing, große Verträge, Vertriebsführung und umfassende Transformationen anbietet. Seine berufliche Laufbahn umfasst über 20 Jahre globale und pan-europäische Erfahrung, darunter Führungspositionen bei Capgemini Suisse S.A. (2008–2012) und IBM Corporation (1995–2008). Er hat sich als strategisch denkender Führungskraft mit Erfolg bei der Performanceverbesserung großer Organisationen, der Gründung neuer Funktionen und der Pionierarbeit bei globalen Outsourcing-Initiativen etabliert. Sein Schwerpunkt liegt auf der Wertsteigerung durch digitale Transformation und der Nutzung dieser Veränderungen für seine Kunden. Er verfügt über akademische Qualifikationen, darunter einen Doktortitel (Dr. phil.) in interkultureller Wirtschaftswissenschaft von der Europa-Universität Viadrina Frankfurt (Oder), einen Diplom-Ingenieur (Dipl.-Ing.) in Elektrotechnik und Informationstechnik von der TU München sowie ein MBA von der Open University Business School, einen Master of Sales Management von der Portsmouth University, sowie Absolvent des Client Executive Programs der INSEAD Fontainebleau.
Scroll to top