Warum es wichtig ist: Die EU hat mit dem Beschluss zur neuen Urheberrechtsrichtlinie mit einem noch strikteren, und damit noch unzeitgemäßeren Urheberrecht die Weichen gestellt, um alle Plattformen mit Uploadfunktionen nachhaltig zu stören. Man sieht heute bereits an vielen Stellen, was künftig schnell an Fahrt aufnehmen wird. Die Sorgen und Argumente der Kritiker waren berechtigt, die Befürworter ändern langsam, still und leise aber kontinuierlich ihre Argumentationslinien.
Es ist nichts neues, dass man anhand der Missstände bei YouTubes ContentID sehen kann, was mit einer noch strikteren Anforderung an Plattformen passieren wird. Im Zweifel verschwinden mehr und mehr Dinge, die gar nicht unrechtmäßig hochgeladen und geteilt werden. Sicher ist sicher.
Den Plattformbetreibern drohen hohe Strafen, wenn ihnen ein urheberrechtlich geschütztes Werk durchschlüpft1 und keine Strafen, wenn versehentlich Inhalte entfernt oder geblockt werden. Darüber hinaus spielt noch ein größerer Kontext mit hinein:
Wir leben in einer Welt der Exklusivrechte. Es gibt vergleichsweise nur wenige Werke, die nicht komplett von Exklusivrechten vor quasi allem beschützt werden. De facto die gesamte Nachkriegskultur des 20. Jahrhunderts wird exklusivrechtlich beschützt.
Das hat zur Folge, dass selbst frustrierend viele Experten bei allem erst einmal vom exklusiv geschützten Werk ausgehen. Der natürliche Zustand, die Gemeinfreiheit, ist heute eine Abnormität, die eigenartig anmutet. Eine seltene Ausnahme, gilt nur für sehr alte Werke.2
Die Welt der Exklusivrechte hat deshalb auch zur Folge, dass Systeme, die für den Einhalt von Urheberrechten auf Plattformen gebaut werden, natürlich davon ausgehen, dass alle Inhalte komplettem Exklusivurheberrechtsschutz unterliegen.
Wie könnte es auch anders sein?
Im Zweifel ist es geschützt, im Zweifel muss es deshalb weg von der Plattform. Sicher ist sicher.
Ein schönes Beispiel dafür, was das bedeuten kann, konnte man vor ein paar Tagen anhand des Mueller-Reports sein, der, wie alle Inhalte der US-Regierung unter die Public Domain fällt, also kein Copyright hat. Sich aber trotzdem tagesaktueller höchster Popularität erfreut.
Quartz titelte in’s Scharze treffend: „Scribd taking down the Mueller Report is the future the EU has voted for„.
Was war passiert:
A convenient feature of nearly all documents created by the US government is that they have no copyright. As such, the Mueller Report exists in the public domain both colloquially (it’s everywhere!) and legally (no rights restrictions!).
However, in a taste of what’s to come with the EU’s views on copyright enforcement, the online document portal Scribd took down multiple copies of the Mueller Report claiming that their algorithms identified it as a copyrighted work.
Weil ja alles heute exklusiv gesichert ist:
A spokeswoman for the company says that “a leading global publisher” released the report as a book, fooling Scribd’s systems into thinking the report was owned by the publisher. The company identified 32 copies of the document, all of which were removed and then reinstated, she said.
Wenn ein „leading global publisher“ einen Inhalt verwertet, dann gehört dieser Inhalt diesem Publisher exklusiv zur Verwertung. Logisch, oder?
Wir leben in einer Welt der Exklusivrechte. Welche Default-Annahme sollte man einem System, das konstant und schnell tausende und abertausende Inhalte einordnen muss, sonst an die Hand geben?
- Würde der Müller-Report dem Copyright unterliegen
- und wäre er nicht entfernt worden
- und hätte Artikel 13 (17, whatever) sich schon in nationale Gesetzgebung erbrochen,
dann könnte es für Scribd heute schon teuer werden.
Deshalb runter damit, danach notfalls checken, wenn Beschwerden eintreffen.
Sicher ist sicher.
Scribds BookID, das Äquivalent zu ContentID von YouTube, arbeitet deshalb heute schon scharf und wird künftig noch schärfer eingestellt werden.
Der Mueller-Report hat jetzt, sagen wir, eine gewisse Popularität und ist inhaltlich politisch auch etwas aufgeladen; alles, was mit dem Report zu tun hat, bekommt also entsprechend viel Aufmerksamkeit.
Was passiert wohl mit gemeinfreien Inhalten, die auf ähnliche Art versehentlich in den Exklusivtopf gesteckt werden aber nicht eine vergleichbare Popularität genießen?
Quartz
The Council of the European Union recently approved legislation known as Article 13. It’s a law that requires internet platforms to police content for copyright violations before it goes up, rather than only after it is reported as infringing by a third party as they do now. In practice, it is expected to lead to more scenarios like the one here: public domain and other legal uses of work get blocked or taken down by an unaccountable system of corporate dragnets based on code so poorly written and algorithms so poorly trained that it mistakes the most talked-about and most widely shared public-domain documents for copyrighted works.
Aber kann man nicht einfach ein paar echte Menschen an dieses Problem setzen? Müssen es denn immer Algorithmen sein?
Alex Hern, der UK Tech Editor des Guardians, hat neulich auf Twitter als das Video des Amoklaufs von Christchurch konstant wieder hochgeladen wurde,3 gefragt, warum YouTube et al nicht einfach „eine Person“ beschäftigen und damit beauftragen, nur dieses Video zu blocken.
Much more recent testimony (as in, from last week before Congress) has YouTube saying „over 500 hours of video uploaded every minute.“ To be conservative, let’s use the number 500, even though YouTube says it’s higher than that, and in all likelihood the number continues to grow each year. That means we’re already talking about 30,000 minutes of content added every minute. Hern talks about having 30,000 people employed at any one time to view all that content, but that makes a few assumptions that are incorrect.
First, assuming that anyone can sit there and just watch content straight for 8 hour shifts is crazy. There have already been lots of discussions about the difficult situation content moderators are in, in that reviewing content all the time is incredibly stressful, and often requires significant breaks. So even as Hern „rounds up“ his numbers, we’re likely talking a much higher need for reviewers to actually cover all this content in an 8 hour day. Also, Hern assumes that a single viewing by a single individual is all that content moderation would take. That makes no sense at all. To determine if a video is appropriate often would require multiple viewings, and sometimes some level of research to understand the context/language/etc. in a video to determine whether or not it met some criteria. And let’s not leave out the ongoing training that would be required of moderators to keep up on the ever changing nature of what’s allowed/not allowed under YouTube’s terms of service. The Radiolab episode we discussed last year showed just how difficult a process it is to train moderators, and to continually update what’s allowed, as so much content falls into a „gray zone“ rather than being black and white (allowed/not allowed).
So, just on that criteria alone, you’re probably talking about at least doubling the number of reviewers needed just so you’d actually have enough time to view each video enough times to fully understand what’s going on and to keep up with the rules. So now we’re talking about at least 200,000 content moderators. The last report I’ve seen says that in 2018 Google had 98,771 employees. So this alone would nearly triple its workforce.
Oh, and we’re still assuming that a single person viewing the video is all that’s needed. But that’s wrong. Last year, when we ran our „You Make the Call“ game at the Content Moderation Summit in DC, one of the things we noted was that in every example we made the audience vote on, there was no uniform agreement on what content should be allowed or disallowed — even when we specifically highlighted the rule that the content likely violated. On every single example, people disagreed and had strong arguments for why some content should be allowed, while others believed it should be taken down, and vice versa.
So, at the very least you’d want at least two people to review each piece of content, but then if they disagreed, you’d probably want a third reviewer. And that assumes that a sample size of three is actually reasonable. It probably isn’t. Hell, our sample size of ~100 reviewers at the Content Moderation Summit couldn’t agree on anything, so it’s not clear how many people you’d actually need, but it’s at least double the 200,000 employees we’d already mentioned. So, no we’re talking about at least 400,000 employees, almost quintupling the size of Google’s workforce solely because sometimes a few bad videos get through the existing process.
This seems like overkill.
(Hervorhebung von mir.)
Overkill, indeed.
Und selbst wenn man das mit 400.000+ Moderatoren hinbekommt, dann bleibt das Problem der false positives wie oben bei Scribd, zusätzlich zu Dingen wie stark verzögerter Veröffentlichung der Inhalte. (Selbst letzteres ist nicht vernachlässigbar: Das Ergebnis davon wäre zum Beispiel, dass nutzergenerierte zeitsensitive Inhalte, also Nachrichten oder nachrichtenartige Inhalte wie Kommentare zum Tagesgeschehen, auf Plattformen wie YouTube etc. unmöglich werden. Man kann das als wünschenswert erachten, aber dann sollte man das dementsprechend explizit artikulieren und verargumentieren. Ich sehe das persönlich nicht als wünschenswert.)
Masnick:
this would certainly significantly delay the time it would take to get videos up on YouTube, which decreases the value of the platform. It would also certainly lead to much more unnecessary censorship, as moderators who are unsure of things are probably more likely to block a video from going live, rather than risking the ire of letting through a „bad“ video. It would significantly limit the benefit of YouTube, but likely do very little (if anything) to curb the fact that there are assholes posting asshole-ish content online.
I’ve joked in the past that if we combine all the big questions about „the future of work“ with the big questions about „content moderation,“ one might create a Switftian Modest Proposal to just employ everyone in the job of moderating the content of everyone else, but that hardly seems reasonable or practical.
Es ist ein bisschen erschreckend aber überhaupt nicht überraschend, dass selbst viele Journalisten, deren Ressort „Tech“ ist, dieses Thema nicht komplett erfassen.
Der simplistische Blick auf die Herausfoderungen von Plattformen, der implizit Plattformen mit Redaktionen gleichsetzt und deshalb den hier wesentlichsten Unterschied, nämlich die um Dimensionen unterschiedlichen Größenordnungen, nicht wahrnimmt, spiegelt sich leider konstant in der öffentlichen Debatte wieder.
Es ist ein bisschen wie mit dem Urheberrecht an sich.
Wer in einer Welt ewig anmutender, allgegenwärtiger Exklusivrechte in der Kultur aufwächst, kann sich gemeinfreie Kultur und was sie bedeuten könnte gar nicht mehr vorstellen.
Wer in Redaktionen arbeitet und nur Redaktionen kennt, wie sie redaktionell redigieren, der kann sich (scheinbar allzu oft) nicht vorstellen, wie auf Plattformen zum Beispiel 500+ Minuten Inhalt jede Minute hochgeladen werden, bei denen kein Dritter jemals mit hundertprozentiger Sicherheit wissen kann, ob sie irgendwelchen, nirgendwo öffentlich vermerkten Urheberrechten unterliegen oder gegen andere schwer definierbare Rechte verstoßen. Und dass das nicht umfänglich(!) kontrolliert werden kann ohne massive negative Nebeneffekte.
Und jetzt haben wir den Salat.
- Was angesichts des heutigen Urheberrechts immer passieren wird. Es ist mir noch nicht klar, wie dieses Catch22 aufgelöst werden kann. Vielleicht geht es einfach nicht. ↩
- Dieses Mindset wäre nicht der Fall, wenn die Schutzfristen für Urheberrechte vernünftige Längen hätten. Da die Fristen heute aber länger als Menschenleben sind, wird sich daran vorerst nichts ändern. ↩
- Randnotiz: Warum fragt sich niemand öffentlich, welche Gruppe von Menschen hinter diesen massiven Uploads des Amoklauf-Videos steckten? These: Es wird zu stark auf die Symptome geschaut, also massiver Missbrauch von Facebook, YouTube und co. und zu wenig auf die Ursachen. Was ist mit 4chan, Reddit etc.? Wo liegen die Ursprünge? (Facebook und YouTube haben jedes Scheinwerferlicht bei diesen Themen verdient. Trotzdem gibt es zusätzlich einen massiven blinden Fleck in dieser Debatte meiner Meinung nach.) ↩