Vor ca. fünf Jahren war ich auf einer Veranstaltung der Heinrich-Böll-Stiftung, auf der einer der, sagen wir, führenden Digitalpolitiker der Grünen über die Frage nach zum Beispiel von Wikileaks1 veröffentlichten Informationen und öffentlich online zirkulierenden Informationen sinngemäß antwortete, 'wir müssen uns darauf einigen, was wir online erlauben wollen und was nicht.'
Dabei war und ist der eigentliche Punkt, dass manche Dinge online nicht kontrolliert/gesteuert werden können. Zumindest nicht, ohne massgeblich(!) Grundrechte einzuschränken. Weil das Wesen des Ganzen umgekrempelt werden muss.
Warum es wichtig ist: Selbst elementare Fragen der Regulierung von vernetzter Öffentlichkeit und der ihr zugrundeliegenden Strukturen sind heute noch ungeklärt. Schlimmer noch: Die Debatten sind sogar noch gar nicht bei den eigentlichen Fragen angekommen.
Nehmen wir als Analogie die klassische Printpresse: Man kann zum Beispiel darüber schwadronieren, dass es auf keinen, gar keinen, Fall sein darf, dass in einer gedruckten Zeitung auch nur ein falscher Fakt stehen darf.
Wie aber setzt man dieses Ideal durch in einer Welt, in der Menschen irren können (und bei Gott, Journalisten irren oft) und Fehler unvermeidbar sind? Müssten Tageszeitungen zurechtgestutzt werden auf Wettervorhersagen (auch schwierig!) und Fußballergebnisse? Müssten Printerzeugnisse erst durch eine staatliche Faktenkorrigierbehörde laufen, bevor sie an die Öffentlichkeit geraten dürfen..?
Und da sprechen wir jetzt noch gar nicht darüber, dass nicht alles mit einem 'Richtig/Falsch'-Stempel versehen werden kann.
Der Punkt ist: Das im luftleeren Raum gut klingende Ideal der völlig fehlerfreien Presse würde, wenn es irgendwie in die Welt gepresst werden soll, in der Realität das zerstören, was die Presse ausmacht.2
Das Gleiche gilt für Social Media.
Mit dem Unterschied natürlich, dass diese Öffentlichkeiten noch zu jung sind, damit ein ausreichend breiter Konsens darüber herrschen könnte, was in der Realität zwingend vom Ideal abweichen muss, weil alles andere zu zerstörerisch wäre. Also welche Schönheitsfehler zur Social-Media-Öffentlichkeit dazu gehören, und welche man minimieren kann und muss.
Für Plattformen wie Twitter und Facebook und YouTube usw. hat sich längst herausgeschält, dass sie vor einem unlösbaren Problem stehen. Egal, was sie machen, eine Hälfte der Bevölkerung, so scheint es, wird immer unzufrieden mit dem Ergebnis sein. Die bisherige Verantwortungslosigkeit der Unternehmen selbst verdeckt noch dieses Dilemma. (Deshalb glauben viele Kritiker an einfache Lösungen.)
Example one is the story that came out yesterday, in which Twitter chose to start locking the accounts of users who were either tweeting Trump senior advisor Stephen Miller's cell phone number, or merely linking to a Splinternews article that published his cell phone number (which I'm guessing has since been changed...).
Splinternews decided to publish Miller's phone number after multiple news reports attributed the inhumane* decision to separate children of asylum seekers from their parents to Miller, who has defended the plan. Other reports noted that Miller is enjoying all of the controversy over this policy. Splinternews, citing Donald Trump's own history of giving out the phone numbers of people who anger him, thought it was only fair that people be able to reach out to Miller.
This is -- for fairly obvious reasons -- a controversial decision. I think most news organizations would never do such a thing. Not surprisingly, the number spread rapidly on Twitter, and Twitter started locking all of those accounts until the tweets were removed. That seems at least well within reason under Twitter's rules that explicitly state:
But, that question gets a lot sketchier when it comes to locking the accounts of people who merely linked to the Splinternews article.
Das zweite Beispiel von Mike Masnick zeigt auf eine andere Art, das Problem; sichtbar wird hier auch, dass die Verteilung eines Projekts auf eine Handvoll Plattformen keinen Unterschied gegenüber der Nutzung nur einer Plattform macht:
And that takes us to the second example, which happened a day earlier -- and was also in response to people's quite reasonable* anger about the border policy. Sam Lavigne decided to make something of a public statement about how he felt about ICE by scraping** LinkedIn for profile information on everyone who works at ICE (and who has a LinkedIn public profile). His database included 1595 ICE employees. He wrote a Medium blog post about this, posted the repository to Github and another user, Russel Neiss, created a Twitter account (@iceHRgov) that tweeted out info about each of those employees from that database. Notice that none of those are linked. That's because all three companies took them down (though you can still find archives of the Medium post). There was also an archive of the Github repository, but it has since been memory-holed as well.
Again... this raises a lot of questions. Github claimed that it removed the page for "violating community guidelines" -- specifically around "doxxing and harassment, and violating a third party's privacy." Medium claimed that the post violated rules against "doxxing" and specifically the "aggregation of publicly available information to target, shame, blackmail, harass, intimidate, threaten or endanger." Twitter, in Twitter's usual way, is not commenting. LinkedIn put out a statement saying: "We do not support or condone what immigration authorities are doing at the border, but we can’t allow the illegal use of our member data. We will take appropriate action to ensure our members’ data is protected and used properly."
Many people point out that all of this feels kind of ridiculous, seeing as this is all public info that the individuals chose to reveal about themselves on a public website.
Masnicks Fazit:
There are no "right" answers to these decisions. There are solutions that seem better to lots of people, but plenty of others will disagree. If you think you know the "right" way that all of these questions should be handled, I guarantee you're wrong, and if you were in charge of these platforms, you'd end up feeling just as conflicted as well.
This is why it's really time to start thinking about and talking about better solutions. Simply calling on platforms to be the final arbiters of what goes online and what stays offline is not a workable solution.
Natürlich macht Twitter zum Beispiel zu wenig gegen Nazis auf der Plattform. Aber diese offensichtlichen Umsetzungsschwächen verstellen den Blick auf die größere Herausforderung. Es gibt keine systemische, umfänglich anwendbare, offensichtliche Lösung.
Es bleibt spannend. Fangen wir an zu diskutieren.