Soziale Medien haben gerade in Pandemiezeiten mit Lockdowns und Kontaktbeschränkungen an Bedeutung gewonnen. Sie geraten aber auch immer wieder in die Kritik, etwa wenn sich Fake News und Hassbotschaften über die Plattformen verbreiten. Gesellschaft und Gesetzgeber stehen vor keiner leichten Aufgabe: Hetze und Manipulation verhindern, Meinungsfreiheit bewahren.
Von Sarah Brender
Für viele Menschen gehört der tägliche Griff zum Handy und das Informieren über Neuigkeiten zum Beispiel durch Twitter zur täglichen Routine. Große Kommunikationsplattformen und soziale Netzwerke wie Facebook, Instagram oder TikTok nehmen Einfluss auf unsere Gewohnheiten, unsere Urlaubspläne – und nicht zuletzt auf die politische Meinungsbildung. Dass das auch Gefahren birgt, ist in den letzten Jahren immer mehr ins Blickfeld der Öffentlichkeit gerückt. Die Wissenschaft beschäftigt sich daher zunehmend mit den dunkleren Seiten sozialer Medien, denn ihr Potential für Manipulation, politische Mobilisierung oder Beeinflussung öffentlicher Debatten bleibt nicht auf den virtuellen Raum begrenzt, sondern hat handfeste Auswirkungen in der »realen Welt«.
Ein besonders drastisches Beispiel dafür ist die Nutzung von Twitter als Sprachrohr durch den ehemaligen US-Präsidenten Donald Trump, der unter anderem über seinen reichweitenstarken Account mit über 88 Millionen Followern wiederholt behauptet hatte, ihm sei die Wahl »gestohlen« worden. Im Anschluss an die bekannten Ausschreitungen im Kapitol in Washington, D.C., folgte die Sperrung des Social-Media- Accounts @realdonaldtrump durch Twitter, begründet mit »dem Risiko weiterer Anstiftung zur Gewalt«.
Hohe Followerzahlen können täuschen
Jeder, der schon mal soziale Medien genutzt hat, weiß, dass Anhänger die wichtigste Währung auf diesen Plattformen sind. »Hohe Follower-Zahlen bedeuten, dass der Sender als populär und vertrauenswürdig gilt, und helfen bei der Verbreitung seiner Botschaft«, sagt Dr. Bruno Castanho Silva, Postdoktorand am Cologne Center for Comparative Politics (CCCP).
Das Problem dabei: sogenannte Plattformmanipulation. Nach Definition von Twitter liegt sie vor, »wenn Twitter für Massenaktionen oder aggressive oder betrügerische Aktivitäten genutzt wird, die andere in die Irre führen und/oder ihre Nutzung der Plattform beeinträchtigen«. Unter anderem kann die Popularität von Accounts oder Kampagnen durch die Verwendung gefälschter oder automatisierter Accounts, die Inhalte verfolgen und bewerben, künstlich beeinflusst werden. Ein kurzer Blick auf Google unter den Suchworten »Follower kaufen« zeigt, wie einfach es ist, zu tricksen: Es gibt unzählige Webseiten, die für wenig Geld »Fake-Follower« für die verschiedenen Social-Media-Plattformen versprechen.
Nicht nur Nutzer sehen hohe Followerzahlen dennoch weiterhin als vermeintliches Zeichen der Vertrauenswürdigkeit an – auch Social-Media-Algorithmen bewerten Accounts mit hohen Followerzahlen als relevanter. Das verschärft den verzerrenden Effekt der Manipulation. Abseits verfälschter Zahlen etwa durch gekaufte Follower können zudem Bots Meinungen vervielfältigen. Ein Bot ist ein Computerprogramm, das weitgehend automatisch sich wiederholende Aufgaben abarbeitet. Programme, die in sozialen Netzwerken menschliche Kommunikation imitieren sollen, werden Social Bots genannt. Ob ein Bot oder ein Mensch ein Posting absetzt, ist nicht unbedingt auf den ersten Blick erkennbar. Um die eigene Meinung zu pushen und eine Masse an gleichgesinnten Personen
vorzutäuschen, sind Bots zur Meinungsbeeinflussung deshalb auch für Politikerinnen und Politiker interessant. Professor Dr. Karl-Nikolaus Peifer betont, dass sich diese Art der Plattformmanipulation im rechtlichen Graubereich bewegt. Der Jurist und Direktor des Instituts für Medienrecht und Kommunikationsrecht sagt, der Einsatz von Bots sei juristisch nicht eindeutig verboten, neuerdings fordere man aber zu Recht eine Kennzeichnung für automatisierte Kommunikation: »Menschen möchten wissen, ob sie von Menschen oder von Maschinen informiert werden. Und, ob Relevanz durch menschliche Reaktionen tatsächlich besteht oder durch Maschinen nur vorgetäuscht wird.«
Politiker rechtsradikaler Parteien profitierten von Bots
In einer gemeinsamen Untersuchung mit Professor Dr. Sven-Oliver Proksch vom Lehrstuhl für Europapolitik stellte Bruno Castanho Silva fest, dass 2018 Politiker und Politikerinnen rechtsradikaler und rechtspopulistischer Parteien die größten Nutznießer von Bots waren. Die beiden Forscher zeichneten in Echtzeit Tweets aller nationalen Politiker in der EU auf und nutzten eine von Twitter nicht angekündigte Löschung zahlreicher Bots, um festzustellen, welche Politiker am meisten davon profitieren. Politiker der niederländischen Partei PVV verloren beispielsweise innerhalb weniger Tage fast zwei Prozent ihrer Follower durch die Löschung. Proksch sagt: »Unsere Ergebnisse belegen, dass die Twitter-Popularität rechtsradikaler Parteien mit Skepsis zu betrachten ist.«
Twitter behauptet zwar, kontinuierlich daran gearbeitet zu haben, böswillige Bots aufzuspüren und unschädlich zu machen – mit strengeren Maßnahmen gegen Fehlinformationen insbesondere während der aktuellen COVID-19-Krise. Nichtsdestoweniger seien die meisten Bemühungen der Plattform jedoch nicht sehr transparent. »Es ist unmöglich abzuschätzen, wie weit verbreitet das Problem der Bots zu einem gewissen Zeitpunkt noch ist«, sagt Castanho Silva.
Twitter nennt in seiner Richtlinie zu Plattformmanipulation und Spam vom September 2020 die Möglichkeit des Meldens von Tweets oder Accounts, die gegen die Richtlinie verstoßen und beispielsweise Spam verbreiten oder unechte Interaktionen erzeugen, die Accounts oder Inhalte populärer oder aktiver erscheinen lassen sollen, als sie tatsächlich sind.
Meinungsfreiheit versus Hass und Hetze
Neben den Meinungsmanipulationen der Plattformen durch Bots sind auch Hass und Hetze ein immer wiederkehrendes Problem auf den Social-Media-Kanälen. Da gerade zuspitzende Inhalte auf Facebook und Twitter gerne geteilt und geliked werden, kritisieren Journalistinnen, Politiker und Netzaktivistinnen einen Trend zur Eskalation und Polarisierung in Debatten. So meldete sich etwa der Grünen-Politiker Robert Habeck von Twitter und Facebook ab und sagte, Twitter sei »ein sehr hartes Medium, wo spaltend und polarisierend geredet« werde.
Sperrungen seien zwar in Ausnahmefällen unverzichtbar, um Hassbotschaften und Lügenkampagnen zu stoppen, argumentiert der Medienkulturwissenschaftler Professor Dr. Stephan Packard. Aber grundsätzlich sei es ein Balanceakt, den nicht die privaten Diensteanbieter, sondern nur der Gesetzgeber meistern könne. »Wenn Plattformen bestimmte Nutzer, Inhalte oder Verwendungen ganz oder teilweise ausschließen, unterbinden sie damit Teile einer mündigen Teilhabe an der Demokratie. Wenn sie andererseits schädliche Rede, etwa propagandistische Hetzrede oder Lügenkampagnen zulassen, ist dieser auf anderem Wege kaum mehr beizukommen«, beschreibt Packard das Dilemma.
Einfache Lösungen kann es also in vielen Fällen nicht geben. Diskussionen um die Rechtmäßigkeit von Sperrungen, wie im Fall der Social-Media-Profile des früheren US-Präsidenten, sind also vorprogrammiert. Zudem ist bisher unklar, wie die rechtlichen Rahmenbedingungen solcher Account- Sperrungen aussehen könnten.
Internationale Konzerne, nationales Recht
Dass etwa Trumps Äußerungsfreiheit durch die Sperrungen seiner Accounts beeinträchtigt wurde, spielt in den USA keine Rolle. Dort ist die Einschränkung der Äußerungsfreiheit rechtlich nur problematisch, wenn sie durch den Staat durchgeführt wird, nicht aber, wenn private Unternehmen sie zu verantworten haben. Der Jurist Peifer stellt klar: »In Deutschland wäre dies anders. Hier müssen auch Unternehmen grundrechtliche Wertungen beachten. Die Vertragsbedingungen der Provider müssen mit dem Prinzip der Äußerungsfreiheit konform sein.« Aus diesem Grund musste zum Beispiel das Unternehmen Facebook bereits mehrfach gesperrte Äußerungen auf Nutzerprofilen wieder freigeben.
Der Medienrechtler weist auch auf juristisch noch ungelöste Fragen hin, die zunächst gesellschaftspolitisch diskutiert werden müssten: Sollten Unternehmen nach selbstgesetzten Regeln Entscheidungen treffen dürfen, die für die Kommunikation von großer Bedeutung sind – seien es Sperrungen oder Öffnungen? Sollten Plattformbetreiber auch Verhaltensstandards befolgen müssen, die für den Berufsjournalismus gelten? Sollten also Vielfaltsgewährleistung, Recherchepflichten, Mäßigungsgebote und Beschwerdemechanismen auch für soziale Medien Anwendung finden?
Welche Lösungen gibt es?
Stephan Packard macht aus der Perspektive der Medienkulturwissenschaften einen Lösungsvorschlag: »Gerade weil diese Fragen ebenso schwierig wie dringend sind, müssen sie in der öffentlichen Debatte diskutiert und im politischen Konsens entschieden werden.« Packard plädiert außerdem für möglichst eindeutig umsetzbare Vorgaben für Plattformen. Diese sollten im Zweifel Freiheit höher gewichten als deren Einschränkung, aber zur Abwehr des schlimmsten Missbrauchs in der Lage bleiben.
»Solche Regeln sind dringend notwendig «, sagt Packard. Denn die Verantwortung der sozialen Medien, die in der Hand privater Anbieter sind, sei aktuell zu groß. Man dürfe die Aufgabe nicht auf sie abwälzen: »Für einen solchen Eingriff in die Grundrechte haben die privaten Unternehmer keine Kompetenz, und sie sollten sie auch nicht haben müssen.«
Packard schlägt der Politik deshalb die Einführung einer Alternative in punkto Social Media vor: »Es bedarf über kurz oder lang einer öffentlichen Alternative zu den privaten Netzwerkbetreibenden, wie es für Radio und Fernsehen der öffentlich-rechtliche Rundfunk bereits seit Jahrzehnten erfolgreich vormacht.« Das könne durch eine vergleichbare Institution geschehen, oder auch durch die Förderung dezentraler Kommunikationsformate, wie wir sie aus dem System E-Mail kennen und wie sie laut Packard auch für soziale Netzwerke möglich sind: »Eines der fundamentalen Funktionsprinzipien des Internets ist Dezentralität. Mit Facebook & Co. haben wir uns stattdessen an privat regulierte und kontrollierte Plattformen gewöhnt. Aber auch soziale Medien sind dezentral möglich: Erste Versuche wie Diaspora und Mastodon beweisen das.« Jetzt gehe es darum, sie weiterzuentwickeln und vor allem die rechtlichen und praktischen Rahmenbedingungen zu schaffen, um ihre Nutzung auszubauen.