Zum Hauptinhalt springen

Youtube, Twitter und Facebook sperren Zehntausende Beiträge

Die Unternehmen müssen sich an ein neues deutsches Gesetz halten. Bei Youtube betrifft ein Grossteil der entfernten Beiträge «Hassrede».

Google sperrt seit 1. Januar in Deutschland am meisten Beiträge, fast niedlich sind dagegen die Zahlen von Facebook und Twitter.
Google sperrt seit 1. Januar in Deutschland am meisten Beiträge, fast niedlich sind dagegen die Zahlen von Facebook und Twitter.
Reuters

Google, Facebook und Twitter haben im ersten Halbjahr 2018 Zehntausende Nutzerbeiträge in ihren Netzwerken gelöscht. Aus ihrer Sicht sind es Straftaten laut des Netzwerkdurchsuchungsgesetzes (NetzDG), das seit 1. Januar in Deutschland gilt. Es soll bewirken, dass soziale Netzwerke Beiträge entfernen, die Straftatbestände wie Verlemdung oder Volksverhetzung erfüllen.

Die erste Bilanz des ebenso ungewöhnlichen wie umstrittenen Gesetzes zeigt aber auch: Die Plattformen lehnen den Grossteil der Anzeigen, die sie von Nutzern über ihre neu geschaffenen Meldesysteme erhalten, als haltlos ab. Das deutet darauf hin, dass das Gesetz nicht zu der weiträumigen Zensur geführt hat, die Gegner befürchtet hatten.

Das neue Gesetzt umfasst 21 Straftatbestände, von Beleidigung und Verleumdung über Bedrohung bis zu Volksverhetzung und der Aufforderung zu Straftaten. Es gilt für Internet-Plattformen mit mehr als zwei Millionen Nutzern in Deutschland und soll die Unternehmen dazu bringen, Beiträge konsequent zu löschen, in denen diese Straftaten begangen werden.

Hintergrund war der Anstieg von Beleidigungen und Volksverhetzungen in sozialen Medien, insbesondere nachdem 2015 viele Menschen nach Deutschland geflüchtet waren. Ihnen und Bürgern, die sich für ihre Aufnahme einsetzen, schlug in sozialen Medien verstärkt Hass entgegen. Nach einem lauten Streit über die Gefahren für die Meinungsfreiheit hatte der damalige Bundesjustizminister Heiko Maas das Gesetz verabschieden lassen.

Mehr als ein Drittel der gemeldeten Inhalte waren «Hassrede oder politischer Extremismus», wie es Google nennt.

Das NetzDG verpflichtet die Unternehmen zu einer Art Arbeitsnachweis darüber, welche und wie viele illegale Inhalte sie blockiert haben. Sie müssen auf den eigenen Webseiten darlegen, wie sie reagiert haben, wenn ihnen die Straftaten gemeldet werden.

Was die Berichte von Facebook und Google zeigen:

  • Auf Googles Video-Plattform Youtube meldeten Nutzer und speziell beauftragte Beschwerdestellen wie jugendschutz.net 214'827 Beiträge, dazu zählen auch Kommentare unter Videos. Ob diese Zahl hoch ist, ist schwer zu sagen, da sie zum ersten Mal erhoben wurde. Auf Youtube stehen Abermillionen Videos und noch viel mehr Nutzerkommentare.
  • 58'297 dieser gemeldeten Beiträge wurden blockiert, damit sind sie für Nutzer aus Deutschland unsichtbar. Das entspricht 27 Prozent.
  • Mehr als ein Drittel der gemeldeten Inhalte waren «Hassrede oder politischer Extremismus», wie es Google nennt. Darauf folgen «Persönlichkeitsrechtsverletzung und Beleidigung» mit etwa 20 Prozent.
  • Insbesondere Youtube wird mit Meldungen geflutet. 73 Prozent der gemeldeten Beiträge sind den internen Prüfern zufolge strafrechtlich nicht relevant. Grund für die Ablehnung einer Meldung kann sein, dass der Meldende sich juristisch zu wenig auskennt und eine Straftat sieht, wo keine ist. Es sei einfach viel «Spam» dabei, sagt ein Sprecher von Google: «Viele der Meldungen stehen in keinem Zusammenhang zum deutschen Strafrecht oder sind völlig unsubstantiiert, so dass wir keine Massnahmen ergreifen.»

Im Vergleich mit Google fallen die Zahlen von Facebook geradezu niedlich aus:

  • 1704 Beiträge wurden gemeldet, und das in 886 Meldungen (eine Meldung kann mehrere Beiträge betreffen).
  • Das ist deutlich weniger als erwartet und hängt vermutlich auch damit zusammen, dass Facebooks Meldeformular deutlich schwieriger zu finden ist als jenes von Google und Twitter. Leise Kritik daran übt Gerd Billen, Staatssekretär im Justizministerium, laut dpa: «Die einen Betreiber weisen mehr Beschwerden innerhalb der ersten sechs Monate auf, die anderen weniger. Dafür gibt es vielfältige Gründe, die wir uns genau ansehen werden. Einer davon liegt in den unterschiedlichen Meldewegen, die erheblich sind für das Aufkommen. So hat Facebook einen komplizierteren Beschwerdeweg nach NetzDG eingeführt als zum Beispiel Youtube.»
  • Von den gemeldeten Beiträgen blockierte Facebook 362, am häufigsten wegen Beleidigung, übler Nachrede und Volksverhetzung. Das entspricht einer Blockquote von etwa 21 Prozent.

Auch Twitter legte am Freitagmorgen Zahlen vor:

  • 264'816 Beiträge wurden Twitter gemeldet. 28'645 blockierte das Unternehmen.
  • Die im Vergleich mit Facebook und Youtube niedrige Blockquote von weniger als elf Prozent ist womöglich damit zu erklären, dass Twitter das politischste Medium ist. Dort ist fast jeder Aktivist und streitet über tagesaktuelle Themen, deshalb beobachteten Gegner des Gesetzes besonders argwöhnisch, ob Twitter Zensur ausüben würde. Das Unternehmen war deshalb wohl besonders vorsichtig mit seinen Sperren.
  • Die meisten Sperrungen nahm Twitter wegen Volksverhetzung vor, das passierte fast 10'000-mal. Es folgen Beleidigung und Verwenden von Kennzeichen verfassungswidriger Organisationen.

Und immer wieder nur 24 Stunden Zeit

Was aus den Zahlen nicht hervorgeht: Wirkt das Gesetz tatsächlich wie eine Zensur? Die Unternehmen geben offen zu, dass sie im Zweifelsfall eher zum Blockieren eines Beitrags tendieren als zum Stehenlassen – sogenanntes «Overblocking». Schliesslich wollen sie die hohen Bussgelder vermeiden, die ihnen drohen, wenn sie systematisch Beiträge, die Straftaten darstellen, auf ihren Plattformen stehen lassen. Das kann bis zu 50 Millionen Euro kosten.

Mark Zuckerberg geriet wegen seinen Aussagen zu Facebook-Beiträgen von Holocaust-Leugnern in die Kritik. Video: AFP.

Besonders schwierig für die Unternehmen ist, dass die meisten Meldungen laut Gesetz binnen 24 Stunden bearbeitet sein müssen. Aber etwa die Einordnung persönlicher Beleidigung dauert oft länger. Ein Sprecher von Google Deutschland sagt: «Die Sorge vor Overblocking ist berechtigt. Wir müssen bei der Prüfung primär auf Schnelligkeit achten, wo es doch eigentlich um sorgfältiges Abwägen gehen müsste.»

100 Google-Mitarbeiter prüfen die Meldungen

Wie oft die Blockaden schiefgehen, bleibt unklar. Weder Facebook noch Google geben Zahlen heraus, wie oft sie Blockaden wieder aufgehoben haben. Das wäre ein Indikator für das Ausmass des «Overblockings». Ein weiteres Problem: Ob Sperren rechtmässig waren, stellt sich oft auch im Nachhinein nicht heraus, sagt der Sprecher: «Es gibt einfach Fälle, bei denen es auch nach Monaten nicht klar ist, ob die Inhalte legal oder illegal sind.»

Google lässt die Youtube-Meldungen von 100 Mitarbeitern prüfen, Facebook von 65. Sind die sich nicht sicher, «eskalieren» sie Meldungen zu den Hausjuristen, die dann wiederum externe Kanzleien beauftragen können. Das tat Facebook zum Beispiel bei 54 der 886 Beschwerden.

Die Härtefälle landen beim Bundesamt für Justiz (BfJ), einer nachgelagerten Behörde der Justizministeriums. Sie ist für Beschwerden von Nutzern zuständig, wenn diese finden, eines der sozialen Netzwerke weigere sich, einen illegalen Beitrag zu löschen. Bei dem Amt trafen nach seinen Angaben im ersten Halbjahr 526 Meldungen ein.

Bussgelder gegen eine Plattform hat das BfJ noch keine verhängt. Sowohl Google als auch Facebook erklärten, das Amt habe sich im vergangenen halben Jahr nie bei ihnen gemeldet. Die Behörde wird nun die Berichte daraufhin prüfen, ob die Unternehmen ihren Pflichten nachgekommen sind – und sie kann bei Verstössen Bussgelder verhängen.

Dieser Artikel wurde automatisch aus unserem alten Redaktionssystem auf unsere neue Website importiert. Falls Sie auf Darstellungsfehler stossen, bitten wir um Verständnis und einen Hinweis: community-feedback@tamedia.ch