Das Vorgehen von YouTube gegen hasserfüllte Inhalte ist ein nach hinten losgehendes Durcheinander

  Youtube-Logo

Das erste, was ein junger Websurfer lernt, wenn er sich ins Great Digital Yonder wagt, ist, dass das Internet, wie die Natur selbst, ein brutaler Ort ist.

Es gibt viele gefährliche Kreaturen, die die 5G-Grenze durchstreifen. Incels in ihren Forumshöhlen herumschleichen. Impfgegner Schreien von Berggipfeln zu jedem, der zuhören will. Spam-Spots und ihre digitalen Paarungsrufe, die nur darauf ausgelegt sind, Sie von Ihrem Geld zu trennen.

Aber der älteste und gefährlichste aller Feinde ist der Troll.

Trolle gibt es seit dem DFÜ-Zeitalter des Internets. Sie spuken weit und breit in Kommentarbereichen des Internets! Einige sind vielleicht gerade jetzt im Kommentarbereich dieses Artikels! Ihre Zahl ist zahllos und es gibt sie in allen Formen und Größen. Einige sagen hasserfüllte und bigotte Dinge wirklich, weil sie ihnen glauben, einige, weil sie glauben, dass es ihnen helfen wird, Online-Ressourcen in Form von Likes oder Shares anzuhäufen, aber andere tun es aus einem weitaus heimtückischeren Grund … „dem Lolz“.

YouTube hat jahrzehntelang tapfer versucht, die Bedrohung durch die Trolle zu bekämpfen, aber ohne Erfolg. Immer wenn ein Troll-Konto gelöscht wird, erscheinen zwei weitere, um seinen Platz einzunehmen. Einige glauben, dass Trolle wie eine griechische Hydra oder ein Schwarmbewusstseinsorganismus sind, dessen kollektiver Zweck darin besteht, Elend und Leid zu verbreiten. Als letzten Versuch, die Bedrohung durch die Trolle zu besiegen, hat YouTube einen Algorithmus entwickelt, der nicht die Trolle jagt, sondern die Dinge, die sie mögen sagen .

Aber es funktioniert nicht. Und jetzt spüren unschuldige Accounts die Wirkung.

Der fatale Fehler von YouTube

In seinem Bemühen, gegen wahrgenommene negative Inhalte vorzugehen, hat YouTube einen Algorithmus entwickelt, der auf hasserfüllte, verstörende oder pornografische Äußerungen „lauscht“. Die Nein-Nein-Worte? Offensichtlich jeder Bogen unter der Sonne, kaum ein Problem dort. Allerdings wurden auch Wörter wie „Selbstmord“ oder „sexuelle Übergriffe“ zensiert. Noch „erwachsenere“, aber harmlosere Wörter wie „Vibrator“ unterliegen der Zensur. Offensichtlich bestand das Ziel darin, Inhalte zu entfernen, die von schlechten Schauspielern erstellt wurden und gegen die YouTube-Richtlinien verstoßen, aber viele unschuldige Ersteller sind auch ins Kreuzfeuer geraten.

In seinem Video „ So töten Sie ein YouTube-Video “, erklärt Mr. Beat, Mittelschullehrer und Content-Ersteller, wie der Algorithmus von YouTube seine Arbeit, die Bildung von Kindern, so viel schwieriger macht. Eines seiner letzten Videos mit dem Titel „ Der größte Fehler eines jeden Präsidenten “ wurde altersbeschränkt, weil er No-No-Themen wie Völkermord und Wahlverweigerung erwähnte. Offensichtlich sind dies zwei schlechte Dinge. Die Geschichte ist voller schlimmer Dinge. Geschichtsstudenten haben eine Verantwortung lernen über diese schlechten Dinge, um die Zukunft zu einem besseren Ort zu machen. Das Problem ist, weil YouTubes Algorithmus Nein-Nein-Worte ohne „gehört“ hat Verständnis ihnen wurde das Video als ungeeignet für die Zuschauerschaft der angesehen Leute, die es am meisten sehen müssen .

Während dies offensichtlich pädagogische Bedenken aufwirft, bringt es auch finanzielle Bedenken mit sich. Mr. Beat verbringt unzählige Stunden damit, Inhalte zu erstellen und aufzunehmen, die Zuschauer sowohl auf sein Konto als auch auf YouTube insgesamt locken. Das bringt natürlich Geld. Mr. Beat verdient Geld basierend auf der Zeit, die die Leute damit verbringen, seine Inhalte anzusehen, und YouTube nimmt einen Teil dieses Geldes, um ihm eine Plattform zu geben. Das Problem ist, dass, wenn YouTube die Videos von Herrn Beat zensiert, die direkt für seine Zielgruppe gemacht wurden, diese direkt seine Fähigkeit beeinträchtigen, fair bezahlt zu werden.

Während kleinere Ersteller von Inhalten tendenziell die schlimmsten Auswirkungen des Algorithmus erleiden, wird größeren „Geldverdiener“-Erstellern und -Kanälen viel mehr Spielraum eingeräumt. Es ist viel unwahrscheinlicher, dass YouTube ein von TED oder PBS erstelltes Video zensiert oder altersgeschützt. Ja, TED und PBS veröffentlichen mit weitaus geringerer Wahrscheinlichkeit Hassreden als ein unabhängiger unabhängiger Urheber. Der Ansatz von YouTube scheint jedoch übervorsichtig zu sein, und aus diesem Grund tragen unabhängige Urheber die Hauptlast der ungerechtfertigten Zensur.

in welchem ​​bundesstaat liegt raccoon city

Dieses Problem tritt nicht nur bei YouTube auf. TikTok ist dafür bekannt, ganze Videos, die den Algorithmus-Alarm auslösen, komplett zu löschen. Ein Internet-Troll, der jemandem vorschlägt, sich selbst zu verletzen, und ein Psychiater, der über Suizidpräventionstechniken spricht, sind offensichtlich nicht dasselbe, aber für den Algorithmus können sie es genauso gut sein.

Was ist „Algosprache“?

Aufgrund dieses Vorgehens gegen die Sprache hat sich eine neue Form des Internet-Jargons entwickelt. „Algospeak“ – wie die zahlen- und zeichenbasierte Sprache 1337 5p34k (Leetspeak) – hat damit begonnen, sich im World Wide Web zu verbreiten. Im neuen Internetzeitalter erwägt eine Person, die Selbstmord in Betracht zieht, sich selbst „nicht zu leben“. Eine Person, die sexuelle Übergriffe erlebt hat, ist ein „SA“-Überlebender. Und was ist mit Leuten, die Vibratoren benutzen? Ich glaube, du meinst „würzige Auberginen“.

Einige dieser Begriffe klingen zwar charmant oder liebenswert, der Grund für ihre Verwendung ist es jedoch nicht. In einer Welt, in der Content-Ersteller bereits mit Händen und Füßen darum kämpfen, sich Gehör zu verschaffen, werfen diese Algorithmen einen Schraubenschlüssel nach dem anderen in die Zahnräder. Sogar Videos, die universelle Themen wie die COVID-19-Pandemie besprachen, waren anfällig für Zensur, und die Internetbewohner begannen daher, die Pandemie „The Backstreet Boys Reunion Tour“ oder „The Panini“ zu nennen.

Ironischerweise ist Algospeak in den toxischen Online-Communities am weitesten verbreitet, die diese Algorithmen bekämpfen sollen. Im vergangenen Jahr begannen Anti-Impfstoff-Gruppen damit ihre Namen ändern auf „Dance Party“ oder „Dinner Party“, um nicht entdeckt zu werden. In ähnlicher Weise begannen Impfgegner, sich auf geimpfte Personen mit dem Codewort „Schwimmer“ zu beziehen. Bei neueren Ereignissen haben giftige Unterstützer des Harry-Potter-Autors und Prominente Transphobie JK Rowling begann, die Kritiker des Autors mit Nachrichten zu überfluten, die „avada kedavara“ lauteten. Der Satz ist aramäisch und bedeutet „Ich werde zerstören, während ich spreche“, und Harry-Potter-Leser wissen, dass der Satz als Beschwörung verwendet wird, um den Todesfluch zu wirken. Trans-YouTuber Jesse Earl zuerst bemerkte den Trend im Kommentarbereich einiger ihrer Videos. Wenn er auf diese Weise verwendet wird, ist der Ausdruck eine Hassreden-Hundepfeife und eine potenzielle Todesdrohung. Der YouTube-Algorithmus hat keine Ahnung.

Leider sind wir noch weit von den Tagen eines trollfreien Internets entfernt. Alle Methoden, mit denen wir versucht haben, die Bedrohung einzudämmen, versagen, und was noch schlimmer ist, sie schaden den Erstellern von Inhalten, die YouTube und andere Technologieunternehmen zu schützen versuchen. Bisher hat uns nur ein altes Internet-Sprichwort etwas Gutes getan: „Füttere die Trolle nicht“. Ohne Empörung verhungern viele Trolle. Am gefährlichsten sind jedoch diejenigen, die Hassreden posten, selbst wenn sie ignoriert werden.

(Ausgewähltes Bild: YouTube)