Happy Living in der Informationsgesellschaft Facebook - Manipulatives Geschäftsgebaren

Digital

12. November 2014

Die Machenschaften von Facebook provozieren einige kritische Fragen, aus aktuellem Anlass vor allem zur Forschungsethik. Der Umgang mit Daten und Informationsflüssen von einer der sammelwütigsten Firmen steht schon länger in der Kritik, nun werden auch die Gefühle der Menschen manipuliert, um die Nutzer_innen als Objekt besser zu verstehen.

Eingang zum Facebook Hauptsitz in Menlo Park, California, USA.
Mehr Artikel
Mehr Artikel

Eingang zum Facebook Hauptsitz in Menlo Park, California, USA. Foto: LPS.1 (PD)

12. November 2014
0
0
7 min.
Drucken
Korrektur
Ein aus forschungsethischer Sicht mehr als fragwürdiges Vorgehen, doch aus Sicht der Betroffenen stellt sich die Frage, was sich in diesem Forschungssetting wirklich vom Alltagszustand der gesteuerten Konsumation abhebt.

Der Grund zur Aufregung

Zur Erinnerung: Vor einigen Monaten kam zu Tage, dass die Newsfeeds von über einer halben Million Facebook-Kundinnen manipuliert wurden, um emotionale Reaktionen zu „erforschen“. Das Resultat besagt, dass wenn einer Person mehrheitlich „negative“ Nachrichten zugestellt werden, bzw. die „positiven“ vorenthalten werden, deren Stimmung davon parallel beeinflusst wird. Je schlechter also der News-Kanon, desto negativer kommen die eigenen Posts daher und umgekehrt. Das Ergebnis steht vor allem im Bezug auf die Stimmungsbeeinflussung ohne persönliche Interaktion, d.h. ohne die Wahrnehmung von Stimmungen anderer Personen:

"Wir können den experimentellen Nachweis erbringen, dass emotionale Ansteckungseffekte auftreten, ohne dass es zu einer direkten Interaktion zwischen Menschen [...] kommt, unter vollständigem Ausschluss von nonverbalen Hinweisen." (aus dem Forschungsbericht, zitiert in der Washington Post)1.

Dabei ist das Resultat nicht besonders überraschend, aber mit ca. 690'000 Proband_innen doch eher aussagekräftig – viele Verhaltensstudien müssen mit deutlich weniger „Testobjekte“ auskommen.

Das liegt vielleicht daran, dass die Konzipierung einer solchen Studie nicht ganz einfach ist. Wenn die Proband_innen wissen, was mit der Studie untersucht wird, dann ist ihr emotionaler Zustand bereits kompromitiert. Bei Facebook hat niemand gewusst, dass er manipuliert wird. Oder doch? Facebook verweist auf die Allgemeinen Geschäftsbedingungen, in denen steht, dass die Daten zu Forschungszwecken verwendet werden können. Die Interpretation, dass damit auch die aktive Manipulation gemeint sein kann, ist aber doch etwas weit über das Selbstverständliche hinaus geschossen. Ein Sprecher von Facebook (im selben Artikel der Washington Post zitiert) meint aber:

"Wir betreiben Forschung um unsere Dienstleistungen zu verbessern und um den Inhalt, den die Menschen auf Facebook sehen, so relevant und einnehmend [engaging] wie möglich zu machen... Welche Forschung wir betreiben wird vorsichtig überprüft und wir haben einen strengen internen Kontrollprozess."2

Dieser Überwachungsprozess wurde dann trotzdem angepasst, da es zwar wirklich eine externe Ethik-Komission gab, diese schien aber nicht über die Manipulation informiert worden zu sein, sondern von der Auswertung bereits vorhandener Daten auszugehen.

Was aber wirklich aus diesem Zitat hervorgeht, ist das Facebook durchaus das Ziel hat, ihre Kund_innen zu „bezaubern und einzunehmen“, soviel bedeutet engaging als Adjektiv. Die anderen Bedueutungen von engaging stammen aber alle aus dem technischen Umfeld und beschreiben einen Einschaltprozess oder gar spezifische Maschinenteile. Kund_ innen auf diese Art und Weise einzunehmen hat also nicht nur mit dem emotionalen Empfinden zu tun, sondern impliziert auch ein Verständnis von Gesellschaft als Maschine. Die Gesellschaftsmaschine wiederum besteht für Facebook vor allem aus Informationsflüssen und -Interpretationen. Facebook verdient also Geld im Herzen der Maschine mit der Organisation und Steuerung von Informationen.

Die Problematik der Forschungsethik

Forschungen, die den Menschen, beziehungsweise dessen emotionale Selbstwahrnehmung beeinflussen, sind sehr heikel. Wir lassen uns zwar in der Interaktion mit anderen Menschen gerne beeinflussen und finden es auch nicht immer schlimm, wenn wir von „schlechter Stimmung“ angesteckt werden, wir lassen uns aber nicht gerne manipulieren. So ist es ganz OK, wenn Facebook-Gruppen emotionsmanipulative Ziele haben, wenn aber die Firma ihre Datenmassenverwaltung untersucht, und dabei die Kund_innen kurzerhand zur transparenten Laborratte macht, sieht die Sache anders aus. Wie das Verhältnis zwischen Schüler_in und Lehrer_in, besteht zwischen den einzelnen Facebook-Nutzer_innen und dem Konzern ein Wissens- und Machtgefälle, das zu einer Abhängigkeit der Einzelperson vom „guten Willen“ der Institution führt. Im Unterschied zur Schule hat Facebook aber keine übergeordnete Instanz, die sich für moralische und ethische Fragen zuständig sieht, oder habt Ihr das Gefühl diese Themen stehen bei Aktionär_ innen und Aufsichtsrät_innen auf der Agenda?

Was wirklich für Aufregung sorgen sollte

Emotionen sind den meisten Menschen heilig. Natürlich, denn auch wenn wir sie nicht wirklich unter Kontrolle haben, sehen wir in ihnen unsere Persönlichkeit definiert. In einer Mischung aus Genetik (wovon wir alle nur eine relativ haltlose Vorstellung haben), unserer Erziehung (wovon wir doch immerhin noch ein paar persönliche Erinnerung haben) und eben unserer (gegenwärtigen) Emotionen definiert sich die „Persönlichkeit“.

Vor lauter Heiligkeit kann die Diskussion natürlich nicht sachlich erfolgen. Aus einer wissenschaftlichen Sicht ist es durchaus eine Frage Wert, unter welchen Bedingungen der Mensch als Teil der Gesellschaft untersucht werden kann. Der maschinelle Ansatz, wie oben impliziert, kann aber auf individueller Ebene nicht akzeptiert werden. Während dem eine Ethik-Kommission zwar notwendige Begleiterin einer Forschung am Menschen sein kann, bedeutet ihre Exisztenz noch lange nicht, das die Proband_innen ihr Selbstbestimmungsrecht an diese delegiert haben.

Der Umgang mit Forschungen am Unbewussten ist aber nicht direkt Gegenstand dieses Artikels, auch will ich hier kein „Modell“ für eine Forschungsethik entwickeln. Viel mehr stellt sich die Frage, mit welchem Selbstverständnis die Menschen an Facebook und ähnlichem teilnehmen.

Interaktion oder Kapitalakkumulation

In den Diskussionen und Artikeln zu den Manipulationsvorwürfen an Facebook, aber auch in Gesprächen über andere Firmen, stösst man oft auf ein Unbehagen diesen gegenüber. Gleichzeitig wird aber wieder abgewiegelt, damit dieses Unbehagen nicht dem alltäglichen Gebrauch der „Angebote“ in die Quere kommt.

Ein Hauptgrund zur praktischen Akzeptanz von Facebook ist immer wieder die Masse der Beteiligten, oder wie eben ohne die Teilnahme das Gefühl des Aussenseitertums entsteht. Dabei wird gerade das Hauptproblem zur Legitimation benutzt. Als Ausgangspunkt einer Diskussion der neuen Medien sollte mal die Rolle der grossen datensammelnden Institutionen in unserer Gesellschaft aufgezeichnet werden. Und ich spreche hier wirklich nicht von der NSA oder anderen Herrschaftsapparaten. Viel mehr geht es um die Entwicklungs- und Kontrollmechanismen, die hinter den technologischen Lifestyleangeboten (wie Google, Gameplattformen oder ähnlichem) stehen.

Auf intransparente Weise werden Technologien entwickelt, die einerseits die Menschen auf dem Planeten einander näher bringen – unter kapitalistischkonsumistischem Vorzeichen – und andererseits den Menschen zum gläsernen Objekt machen. Da die Haupteinnahmen über die Werbeetats anderer Firmen zustande kommt, hat Facebook ein grosses Interesse herauszufinden, wie die Menschen Ticken, um eben immer effizienter auf Lifestyleverhalten Einfluss nehmen zu können. Dafür müssen Kund_innen möglichst aus allen Lebenslagen Informationen preisgeben.

Die Kräfte des „freien“ Marktes

Was mit grossangelegten Datensammlungen aus der alltäglichen und überregionalen Interaktion der Menschen alles angefangen werden kann ist wohl noch offen und soll hier auch nicht einfach verteufelt werden. Zur Zeit erleben wir erst den Anfang – den Aufbau der notwendigen Infrastruktur. Problematisch daran finde ich nicht in erster Linie die Infrastruktur der Interaktion, sondern die Interessenlage der Ausführenden und deren Kontrolle über das Ganze. Die Firmen sind nur den staatlichen Gesetzen und der Aktionärskontrolle unterstellt. Dabei unterliegen die Interessen der Aktionär_innen dem Renditenprimat und der Staat hat beim Thema des Gesellschaftsmanagements schon immer zur Überwachung und Kontrolle tendiert.

Der Handlungsraum von Facebook und Co. sprengt die nationalen Grenzen. Die kritisierten Firmen bauen im transnationalen Raum Strukturen auf, die die Menschen zu ihren Bedingungen und unter ihrer Kontrolle vernetzen. Zusammen mit der geheimniskrämerischen Geschäftspraxis können die Nutzer_innen also nicht davon ausgehen, dass ihre Interessen zuoberst auf der Agenda stehen. So reicht es auch nicht eine Expert_innenkommission damit zu betrauen, die dann doch nur einen kleinen Ausschnitt der Strategien und Vorgehensweisen zu sehen bekommt.

Um eine Diskussion dieser Zustände, beziehungsweise dieser Entwicklungen zu führen, können die Menschen zur Zeit fast nur auf die kritisierten Struktruren selbst zurückgreifen. Alternativen gibt es durch ähnliche Programme, die von nichtprofitorientierten Gruppen mit einem kritischen Selbstverständnis zur Datenanhäufung und Privatsspähre zur Verfügung gestellt werden. Gerade aus dem Blickwinkel von basisdemoktratischen Strukturen bieten interaktive Plattformen viel Potential. Um dieses zu entwickeln, sind die alternativen Projekte auf eine breite Unterstützung angewiesen.

s.deo /di schwarzi chatz #32

Fussnoten:

1 http://www.washingtonpost.com/news/morningmix/ wp/2014/06/30/facebook-responds-to-criticism- of-study-that-manipulated-users-news-feeds/ Download am 16.08.2014)

2 http://www.washingtonpost.com/news/morningmix/ wp/2014/06/30/facebook-responds-to-criticism- of-study-that-manipula