Vorweg: Bevor jetzt die eine oder andere Überschriftenregel zur schnellen Beantwortung herangezogen wird: Die Antwort lautet meiner Meinung nach “ja“.
Warum es wichtig ist: Wir stehen am Anfang einer Debatte und der auf sie folgenden ersten dedizierten Regulierungsrahmen für Plattformen in westlichen Nationen. Sowohl die EU als auch die USA pushen, nachvollziehbarerweise und aus teils unterschiedlichen Gründen, sowohl Debatte als auch Gesetzgebung, oder zumindest Positionsfindung, voran. Die Gefahr ist nicht, dass nur ungenügend viel Schlechtes endlich regulatorisch aufgefangen wird. Die sehr reale Gefahr ist, dass wir verlieren, was wir mit den Plattformen gewonnen haben. Was heute YouTube und Facebook betrifft, wird morgen analog auch auf Marktplätze (man denke Richtung Fälschungen) und zum Beispiel Plattformen im Transportsektor zutreffen. Wie so oft sind das Positive und das Negative mehr oder weniger untrennbar miteinander verbunden.
Zeynep Tufekci hat für die New York Times einen viel beachteten Text über den Empfehlungsalgorithmus von YouTube geschrieben. ( Ich empfehle, ihr auf Twitter zu folgen. Tufekci sagt oft sehr kluge Sachen.) Dieser Text ist symptomatisch für die aktuelle Debatte hierzulande wie auch in den USA (mittlerweile).
„YouTube, the Great Radicalizer"":
At one point during the 2016 presidential election campaign, I watched a bunch of videos of Donald Trump rallies on YouTube. I was writing an article about his appeal to his voter base and wanted to confirm a few quotations.
Soon I noticed something peculiar. YouTube started to recommend and “autoplay” videos for me that featured white supremacist rants, Holocaust denials and other disturbing content. [...]
So I created another YouTube account and started watching videos of Hillary Clinton and Bernie Sanders, letting YouTube’s recommender algorithm take me wherever it would.
Before long, I was being directed to videos of a leftish conspiratorial cast, including arguments about the existence of secret government agencies and allegations that the United States government was behind the attacks of Sept. 11. As with the Trump videos, YouTube was recommending content that was more and more extreme than the mainstream political fare I had started with.
(Hervorhebung von mir)
Es ist nicht schwer, sich auszumalen, warum das so ist:
- Auf YouTube werden mindestens seit 2015(!) pro Minute (sehr) weit über 400 Stunden Videomaterial pro Minute hochgeladen.
- YouTube muss diese Masse irgendwie intern automatisiert gewichten, um ‚gutem‘ Material eine Chance auf Popularität zu geben,1 was das Angebot erst für Macher wie Konsumenten interessant und überhaupt nutzbar macht.
- Eines der naheliegenden Signalherde ist ‘Engagement‘: Wie oft ein Video geschaut wird, wie oft es geliked (oder disliked) wird, wie hoch die Abbruchrate beim Anschauen ist, wie viele Kommentare es bekommt, wie viel Leute von außen auf dieses Video stoßen (weil es z.B. populär auf Facebook ist) usw.
- Wie Facebook: Ein Dienst mit kaum vorstellbar vielen Inhalten/Einträgen/Updates, welcher diese -zunächst blind- irgendwie einordnen muss. Damit sie dann angeordnet werden können.
Man kann diesen Vorgang durchaus den Entwicklern des Empfehlungsalgorithmus von YouTube vorwerfen. Aber man muss auch verstehen, was man ihnen vorwirft: YouTube, ebenso wie Google und Facebook, wertet die Signale aus, die es eben hat. Die Ergebnisse selbst werden dabei nicht bewertet, nicht gewichtet. Niemand sitzt bei YouTube und Facebook und hat sich -bis zur Trumpwahl- ernsthaft mit den gesellschaftlichen Folgen beschäftigt. Einziges Kriterium: "Gefällt" es den Leuten? Sprich, kommen sie wieder und schauen mehr Videos, liken mehr Beiträge, machen mehr Websuchen? Das ist, per Definition, neutral.
Das ist die Kehrseite von Neutralität: Egalität. Es deutet auch an, warum das für Facebook, YouTube (Google, Twitter, Twitch, Reddit, etc.) natürlich auch bequem ist: Eine extrem wichtige Variable beim Ergebnis einfach auszublenden, könnte man, wenn man böswillig ist, als Arbeitsverweigerung auslegen.
Auf jeden Fall zeigte vor allem YouTube in den letzten Monaten, wie sehr die Organisation hinter der Plattform geradezu fahrlässig mit ihrer Verantwortung umgegangen ist. Das fängt bei Inhalten für Kinder an und hört bei den teils sehr fragwürdigen Top-Kanälen auf, die leicht zu moderieren wären.
(Im Gegensatz zu dem gesamten Video-Monsterklumpen, der konstant hochgeladen wird, können die Top-Kanäle auch händisch/redaktionell/akribischer begleitet werden. Werden sie aber nicht, weil sie nicht nur Geld machen, sondern auch einen wesentlichen Teil der YouTube-Communitystruktur darstellen: Wenn ein Kanal mit 2+ Millionen Followern abgeschaltet wird, verliert YouTube nicht nur direkt künftige Einnahmen sondern auch einen populären Netzwerkknoten.)
~
neunetz.com per Email abonnieren!
Email-Adresse eingeben:
~
Tufekci weiter:
Videos about vegetarianism led to videos about veganism. Videos about jogging led to videos about running ultramarathons.
Das ist nicht überraschend. Je "extremer", "radikaler", desto höher das Engagement pro Video -> stärkeres Signal. Das muss logischweise für jedes Thema gelten.
Fluch und Segen der Nische. Und des Wegfalls des kleinsten gemeinsamen Nenners im großen Stil.
Given its billion or so users, YouTube may be one of the most powerful radicalizing instruments of the 21st century.
Yep.
Weiter:
It found that YouTube often “fed far-right or far-left videos to users who watched relatively mainstream news sources,” and that such extremist tendencies were evident with a wide variety of material. If you searched for information on the flu vaccine, you were recommended anti-vaccination conspiracy videos.
It is also possible that YouTube’s recommender algorithm has a bias toward inflammatory content. In the run-up to the 2016 election, [der ehemalige Google engineer Guillaume Chaslot, der selbst am Empfehlungsalgorithmus vor längerer Zeit mitgearbeitet hatte] created a program to keep track of YouTube’s most recommended videos as well as its patterns of recommendations. He discovered that whether you started with a pro-Clinton or pro-Trump video on YouTube, you were many times more likely to end up with a pro-Trump video recommended.
Es ist auch ein schwer zu durchbrechendes Nutzerverhalten: Wer auf YouTube nach Grippeimpfung sucht, sucht diese Person dann wirklich unvoreingenommen (‚neutral‘) nach Informationen zu Impfungen auf YouTube? Wie viel wahrscheinlicher ist es, gleichgesinnte Impfungsgegner und schön aufbereitete Anti-Impfungsinformationen zu suchen statt, zum Beispiel, langweilige Regierungsvideos zu Impfungen?
Und weiter: Ein radikaler Kandidat wie Trump wird mehr Aktivität rund um seine Person erzeugen als ein in weiten Teilen eher langweiliger, traditioneller Kandidat, der in seiner Kommunikation, also auch bei den eigenen offiziellen Inhalten und den Reden, die für inoffizielle Inhalte als Rohstoff dienen können, massenmedientauglich fad daherkommt.
Und noch weiter: Neutralität und Egalität bis hin zur fahrlässigen Unterlassung kann auch bedeuten, dass ein staatlicher Player den Algorithmus beeinflussen kann. Es kann dafür ausreichen, an den richtigen Stellen, einige wenige hunderte Signale zu seeden. Ein Schneeball an der richtigen Stelle..
(Twitter agiert an dieser Stelle besonders fassungslos machend hilflos.)
Abgesehen vom massiven Missbrauch durch einen staatlichen Player, lässt sich nichts davon direkt YouTube vorwerfen. Menschen nutzen YouTube, das automatsierte System sieht dieses Verhalten und wurde so programmiert, sich selbst auf dieses Verhalten auszurichten und hinzuoptimieren. Was sollte es auch sonst tun?..
What we are witnessing is the computational exploitation of a natural human desire: to look “behind the curtain,” to dig deeper into something that engages us. As we click and click, we are carried along by the exciting sensation of uncovering more secrets and deeper truths. YouTube leads viewers down a rabbit hole of extremism, while Google racks up the ad sales.
..Mit dem Geschäftsmodell, wie Tufekci es hier andeutet -"racks up the ad sales"-, hat das reichlich wenig zu tun. Eine konkurrierende Plattform, die all die gleichen Features hat nur eben nicht die interne, konstante Optimierung und Ausrichtung auf die Menschen, die sie nutzen: Wie populär wird diese Plattform werden? Zur Beantwortung dieser Frage ist es ziemlich egal, ob diese hypothetische Plattform werbefinanziert, abofinanziert oder etwa öffentlich-rechtlich organisiert wäre.
Anders gesagt, auch wenn YouTube eine Bezahlplattform wäre, bräuchte es eine interne Optimierungsroutine. Ob allein eine Justierung dieser Routine ausreicht?
Die folgende Restaurant-Metapher ist gut:
Human beings have many natural tendencies that need to be vigilantly monitored in the context of modern life. For example, our craving for fat, salt and sugar, which served us well when food was scarce, can lead us astray in an environment in which fat, salt and sugar are all too plentiful and heavily marketed to us. So too our natural curiosity about the unknown can lead us astray on a website that leads us too much in the direction of lies, hoaxes and misinformation.
In effect, YouTube has created a restaurant that serves us increasingly sugary, fatty foods, loading up our plates as soon as we are finished with the last meal. Over time, our tastes adjust, and we seek even more sugary, fatty foods, which the restaurant dutifully provides. When confronted about this by the health department and concerned citizens, the restaurant managers reply that they are merely serving us what we want.
Aber hier kommt das sehr grundsätzliche Gegenargument: Es ist objektiv feststellbar, wie viel Fett, Salz oder Zucker sich anteilig in einer Mahlzeit befindet. Es ist dagegen nicht objektiv feststellbar, ob eine Aussage über ein politisches Thema etwa (welcher zur Wahl stehende Kandidat zum Beispiel "besser" ist) objektiv richtig ist oder nicht. Die schwammige Grenze hier bedeutet letztlich für die Plattformen, abwägen zu müssen:
Inwieweit will man dem (automatisierten, neutralen) System freien Lauf lassen (und riskieren, dass die zunehmenden, publicityträchtigen negativen Folgen absehbar zu starker Regulierung führen)
vs.
Inwieweit will man in die Inhalte selbst wertend eingreifen.
Themen wie Chemtrail oder Trump können nicht von einer neutralen Plattform in eine für uns "wünschenswerte" Richtung gelenkt werden. Das kann nur eine wertende, eine sich zu diesen Themen positionierende Plattform tun. Und werden diese Positionen, dann immer wünschenswert sein? Ist es gut oder schlecht, wenn ein System an Vegetarismus interessierte Menschen graduell durch Empfehlungen an Veganismus heranführt? Wer entscheidet das? Muss das überhaupt jemand entscheiden? Wer entscheidt darüber, bei welchen Themenfeldern überhaupt eine Positionierung/ein Eingriff der Plattform stattfinden muss?
Man sieht bereits: Das Thema ist weitaus komplexer und schwieriger als der oft mitschwingende Vorschlag, YouTube müsse doch einfach mal ordentlich durchgreifen. (Und vielleicht gleich noch das Werbemodell aufgeben.)
Man sollte sich hier nicht von den riesigen Versäumnissen von YouTube täuschen lassen. Dass ein, zwei Reporter mit überschaubarem Aufwand massive Missstände auf der Plattform finden, die dem riesigen Unternehmen selbst nicht bekannt waren, ist eine Frechheit.
Das ändert aber nichts daran, dass ein weniger neutrales YouTube zum einen den entsprechenden Mitarbeitern des Unternehmens persönlich viel zu viel Macht in die Hand gibt. Und zum anderen sich in seiner Natur grundlegend verändern müsste. Ganz davon abgesehen, dass nicht vollkommen klar ist, was genau getan werden sollte und, um das Rätsel abzurunden, was denn das Ziel ist.
YouTube versucht einem der Probleme zunächst mit skalierbaren Ansätzen Herr zu werden. Das ergibt Sinn, liegt aber auch in der Natur eines Unternehmens, das Kosten niedrig halten will. Buzzfeed über einen ersten Schritt:
"Information cues" — links to Wikipedia — will appear alongside videos about topics that have inspired significant debate, like the moon landing and chemtrails.
Gleichzeitig sind es für die Masse einzig die skalierbaren Ansätze, die die gesellschaftlichen Vorteile einer Plattformwelt gegenüber der klassischen Massenmedienwelt erhalten können. Ein wasserdichtes YouTube kann keine 500+ Stunden Videos pro Minute Upload aushalten. Es gäbe dann zwar keinen Missbrauch mehr auf der Plattform2, aber es gäbe dann eben auch sonst fast nichts mehr.
Plattformen gewinnen gegen die alten Distributoren, weil sie eine -erst durch die im Internet vernachlässigbaren Grenzkosten mögliche- Durchlässigkeit haben, die es so vorher nicht gab. Diese Durchlässigkiet wird euphemistisch oft Demokratisierung genannt.
Dahinter steht, dass jede/r von uns:
- Videos auf YouTube hochladen und damit populär werden kann
- Twittern und bloggen kann
- Händler auf eBay und Amazon werden kann
- Auf Facebook und Google Werbung für das eigene Geschäft schalten kann
Wörtlich jede/r.
Der Wegfall von Barrieren hat seine Vorteile und, natürlich, auch seine Nachteile.
Es war bis dato für die Plattformprovider sehr profitabel,3 neutral zu sein: Mit maximaler Durchlässigkeit kommt auch Wachstum; alles andere bremst.
Die aktuelle Debatte dreht sich jetzt allein um die Nachteile, und erscheint, wieder einmal, blind für die Vorteile. Die Vorteile, die wir als Gesellschaft erst vor ein paar Jahren gewonnen haben.
Wir könnten diese Vorteile in ein paar Jahren zu einem signifikanten Teil wieder verlieren, die entsprechende Regulierung vorausgesetzt. Deutschland hat mit dem NetzDG bereits begonnen, in diese Richtung zu gehen.
Wichtig ist es deshalb auch, die strukturellen Vor- und Nachteile von Plattformen klar von den konkreten organisatorischen Versäumnissen und Fehlverhalten der heutigen Plattformprovider zu trennen. Und in der Debatte nicht nur über die Nachteile sondern auch die speziellen Vorteile von Plattformen zu diskutieren.
Die klassischen Massenmedien, die in Deutschland und Europa nachwievor sehr viel Gewicht haben, sind dafür strukturell leider eher schlecht als recht geeignet. Was allen, die die Problematik halbwegs durchdrungen haben, enorme Bauchschmerzen bereiten sollte.
Wir werden wir uns hier auf neunetz.com mit dem Thema Plattform künftig wieder vermehrt und vor allem konstant auseinandersetzen. Die älteren Leser werden sich erinnern, dass ich mich mit diesem Themenkomplex bereits seit über 10 Jahren beschäftige.
- Interessant wäre hier einmal das Argument pro chronologische Anordnung argumentiert zu sehen, wie man es bei Facebook und Twitter so oft liest. Der Wunsch nach chronologischer Anordnung ignoriert natürlich, dass wir längst in einer Welt des Überflusses an Informationen angekommen sind. Oder anders: Chronologische Anordnung von Einträgen setzt eine starke Vorfilterung von Quellen voraus. Deshalb funktioniert das für die meisten Nutzer nicht bei Facebook und Twitter. (Die meisten User haben über die Zeit "zu viele" Freunde und Followings hinzugefügt, die selbst wiederum "zu viel" reden. Wer YouTube lang genug nutzt, hat irgendwann auch mehr Kanäle abonniert, als man komplett ansehen kann. Inhalte außerhalb dieser Followings zu gewichten, was oben diskutiert wird, ist eine weitaus größere Herausforderung.) Wie könnte man diese Vorfilterung von Quellen dann aber wohl verbessern? Automatisiert mit Rankings viellei.... ↩
- Zumindest nicht mehr von erfindungsreichen Mittzwanzigern. Die BILD bleibt davon natürlich unberührt. (Weitergedacht: Man stelle sich die Debatte in Deutschland vor, wenn eine Plattform einen BILD-Kanal wegen Missbrauchs schließen würde. Es ist für viele einfacher, sich ein YouTube vorzustellen, das hart gegen YouTube-Stars vorgeht. Aber eine YouTube, das ebenso hart gegen "Grenzen austestende" Boulevard-Medien auf der eigenen Plattform vorgeht..?) ↩
- Das ist natürlich relativ: YouTube hätte ohne die massiven Ressourcen von Google wahrscheinlich nicht überlebt. Gerüchten zufolge erreichte YouTube erst ca. 2014/15 Break Even. Und Twitter etwa, nunja, das ist eine andere Geschichte. ↩