Wie berichtet, war ich am Montag in Kraiburg, um zu lauschen, wie uns der Bund Naturschutz das Für und Wider bezüglich Windkraft zu Gehör bringt. Ein faktisch neutraler Bericht auf meiner Homepage war anschließend schnell geschrieben. Dann wollte ich auf der Facebook-Seite Gegenwind Altötting auf meinen Bericht hinweisen, aber was geschah? Facebook „kassierte“ meinen Post mit der obigen Begründung. Ich wiederholte den Post, um herauszufinden, ob es sich um einen bedauerlichen Einzelfall handelt. Gleiches Ergebnis.
Man hört in der letzten Zeit immer häufiger von diesen seltsamen Vorgängen. Obwohl ich die Plattform X als letzte noch existierende Freiheitsplattform in den Sozialen Medien betrachte, höre ich auch da von Depriorisierung, wenn man Links setzt, die den Nutzer weg von X und hin zum Beispiel eben Homepages lenken möchte. Das trifft ja auf mich genau zu, der lieber eine Homepage betreibt, weil ich eine Homepage für weitaus seriöser halte, als jedes Soziales Medium.
In diesem Zusammenhang von Spam zu sprechen, betrachte ich als beleidigenden Akt von Zuckerbergs Meta-Plattform.
Was machen eigentlich X, Meta, TikTok, Instagram und Co., damit wir Nutzer auf den Plattformen gehalten und sozusagen in die richtige Richtung geleitet werden? Schauen wir genauer hin.
Die Betreiber sozialer Medien setzen auf eine Vielzahl von Techniken und Algorithmen, um die Nutzerinteraktion zu maximieren, die Verweildauer zu erhöhen und in einigen Fällen das Meinungsbild der Gesellschaft zu beeinflussen. Während diese Technologien oft im Namen von Komfort und Personalisierung eingeführt werden, müssen wir sie kritisch betrachten.
Techniken zur Nutzerbindung
Die Algorithmen sozialer Medien analysieren kontinuierlich das Nutzerverhalten, darunter Likes, Kommentare, geteilte Inhalte und Verweildauer. Ziel ist es, ein möglichst detailliertes Nutzerprofil zu erstellen, das präzise Vorhersagen über die Interessen und Vorlieben der jeweiligen Person erlaubt.
Algorithmen zeigen vor allem Inhalte, die mit den bisherigen Präferenzen des Nutzers übereinstimmen. Diese sogenannte Filterblase fördert eine einseitige Sichtweise und reduziert die Vielfalt der wahrgenommenen Meinungen und Perspektiven. Echokammer ist auch ein bekannter Begriff. Man fühlt sich am wohlsten, wenn man von Dingen hört und sieht, die der eigenen Meinung entsprechen.
Funktionen wie das unendliche Scrollen oder das automatische Abspielen von Videos zielen darauf ab, die Verweildauer auf der Plattform zu maximieren, indem sie dem Nutzer kontinuierlich Inhalte liefern, ohne dass eine bewusste Entscheidung erforderlich ist.
Gamification-Mechanismen
Soziale Medien verwenden Gamification-Mechanismen, die an die Psychologie von Videospielen erinnern, um die Nutzer zu motivieren. Die Bestätigung durch andere Nutzer in Form von Likes oder Emojis löst im Gehirn Belohnungsreaktionen aus und fördert ein Gefühl sozialer Anerkennung. Push-Benachrichtigungen über Likes, Kommentare oder neue Beiträge wecken das Bedürfnis, regelmäßig die App zu öffnen und mit der Plattform zu interagieren.
Plattformen wie Snapchat verwenden Streaks (fortlaufende Tage des Kontakts), um Nutzer dazu zu bringen, tägliche Interaktionen beizubehalten. Selbst meine Homepage beglückwünscht mich, wenn ich ohne Unterbrechung jeden Tag etwas schreibe. Ist ja auch logisch, denn hinter meiner Homepage steht ein Hoster. Der setzt darauf, dass ich meine Homepage möglichst noch zwanzig Jahre betreibe, weil ich ihm für seinen Hosting-Service jedes Jahr einen erklecklichen Betrag überweise.
Die Betreiber sozialer Medien nutzen gezielt kognitive Verzerrungen, um das Verhalten der Nutzer zu beeinflussen. Nutzer sollen das Gefühl bekommen, etwas zu verpassen, wenn sie nicht ständig die Plattform besuchen, was man FOMO (Fear of Missing Out) nennt, also die Angst, etwas zu verpassen. Ähnlich wie bei Spielautomaten variieren die Belohnungen (z. B. Likes oder neue interessante Inhalte), was das Verhalten verstärkt und die Plattform süchtig macht.
Techniken zur Meinungsbildung
Die Reihenfolge, in der Inhalte im Newsfeed erscheinen, wird durch komplexe Algorithmen bestimmt, die auf Faktoren wie Interaktionswahrscheinlichkeit, Verweildauer und Popularität basieren. Dadurch können Plattformen die Sichtbarkeit bestimmter Inhalte steuern. Inhalte, die emotional aufgeladen oder kontrovers sind, haben oft höhere Interaktionsraten und werden bevorzugt angezeigt. Dies kann polarisierende Debatten verstärken. Dagegen kann man bestimmte Inhalte durch geringe Sichtbarkeit effektiv „verschwinden“ lassen, auch wenn diese nicht gegen Richtlinien verstoßen – wie z.B. mein Post zur Windkraft, der – wie der Homepagebericht selbst, nahezu neutral verfasst ist.
Soziale Medien nutzen detaillierte Nutzerdaten, um zielgerichtete Inhalte oder Werbung zu schalten. Mit Inhalten gewinnt man Wähler, mit Werbung wird Geld verdient. Durch Microtargeting können politische Botschaften an spezifische Bevölkerungsgruppen mit maßgeschneiderten Inhalten gesendet werden, um deren Meinungen zu beeinflussen. Nutzer erhalten vorwiegend Inhalte, die ihre bestehenden Überzeugungen bestätigen, was die Polarisierung und Radikalisierung fördert. Ich mache das an einem Beispiel fest. Schach interessiert mich, was dazu führt, dass Facebook mir weit überproportional Schachinhalte präsentiert. Ich werde somit in diese Ecke getrieben, obwohl ich mich gern umfassend in alle Richtungen informieren würde. Die Algorithmen lassen sich aber nicht so schnell ändern. Man kann bei gezeigten Posts zwar „Interesse“ oder „kein Interesse“ bekunden, was aber die Algorithmen daraus tatsächlich machen, weiß niemand. Ich möchte zu einem bestimmten Thema nicht „Interesse“ signalisieren, weil die Gefahr groß ist, wieder einseitig informiert zu werden.
Bots und Fake News
Politische Kräfte jeder Couleur nutzen automatisierte Bots und Desinformationskampagnen um auf den Sozialen Medien gezielt Meinungen zu beeinflussen. Deshalb wäre ich schon längst dafür, die Sozialen Medien grundsätzlich kostenpflichtig zu gestalten. Weil ich eine Homepage habe, um mich mitzuteilen, würde ich keine zehn Euro ausgeben, nur damit Posts auf X länger als 280 Zeichen sein dürfen. Aber ein Euro pro Monat für jedes Medium fände ich vernünftig. Kombiniert mit einer Authentifizierung und der zwingenden Nutzung von Klarnamen würden die Botnetze sofort verschwinden und Desinformationskampagnen wären rückverfolgbar. Von drei Milliarden facebook-user wären bei Kosten von einem Euro pro Monat sicherlich 1,5 Milliarden bereit das Geld zu bezahlen. Mit 16 Milliarden Euro Grundeinnahmen pro Jahr könnte Zuckerberg sicher gut leben, und vielleicht käme die Plattform mit weniger Werbung aus. So aber verbreiten sich Falschinformationen schneller als sachliche Nachrichten, weil sie emotionaler und überraschender sind.
Beim Astroturfing handelt es sich um den Einsatz von Bots oder bezahlten „Social Media Warriors“. Dadurch wird der Eindruck einer breiten Unterstützung für bestimmte Meinungen oder Bewegungen erweckt, obwohl diese in der Realität möglicherweise nicht existiert. Studien haben gezeigt, dass soziale Medien bewusst auf emotionale Reaktionen abzielen. Beiträge, die Wut, Angst oder Freude auslösen, erzielen höhere Interaktionsraten und werden daher algorithmisch bevorzugt. Experimente wie das „Facebook-Emotionsexperiment“ haben gezeigt, dass Plattformen die Stimmung der Nutzer durch die Auswahl bestimmter Inhalte beeinflussen können. Fälle wie der Skandal um Cambridge Analytica zeigen zudem, wie Daten missbraucht werden können, um Wahlen zu beeinflussen.
Discover more from Michael Behrens
Subscribe to get the latest posts sent to your email.