Die BBC hat auf der Amazon-Konferenz re:Mars mit dem Amazon-CTO Werner Vogels gesprochen. Vogels hat massgeblich zur Entstehung von AWS beigetragen. Vor diesem Hintergrund, dem immensen Erfolg des Cloud-Juggernauts AWS und der Arbeitsweise von AWS, muss man Vogels Aussagen lesen.
Warum es wichtig ist: Mit jeder neuen Technologie stellt sich die Frage, an welcher Stelle der Wertschöpfungskette, Verantwortung für den Einsatz dieser Technologie beginnt. Sowohl regulatorisch als auch aus Sicht der Bewertung durch die Öffentlichkeit.
BBC über die technologischen Services, die wie Unkraut rund um AWS aus Amazon herauswuchern:
Its big data capabilities are now the tool of police forces, and maybe soon the military. In the corporate world, Amazon is positioning itself to be the “brains” behind just about everything.
Auf die Cloud-Dienste von AWS setzen mittlerweile über eine Million Kunden, darunter große Unternehmen wie Netflix und AirBnB. (Besonders letzteres behalten wir kurz im Hinterkopf.)
Vogels‘ Vision lässt sich so zusammenfassen: Er will den sehr erfolgreichen On-Demand-Ansatz von AWS auf ein maximal großes Portfolio an API-Services ausweiten. Alles, was von Skaleneffekten (hier etwa auch Datenskaleneffekte neben klassische kostengetriebenen Skaleneffekten) profitieren kann, kann und wird und sollte in Vogels‘ Augen von Amazon/AWS angeboten werden:
He wants to offer companies access to technologies they could not create themselves, such as Textract (“automatically extracts text and data from scanned documents”) or Lex, which uses the same technology as the Alexa voice assistant to turn voice recordings into text.
Und hier kommen wir zur Kontroverse:
Among the tools it is offering, Amazon’s image recognition product is the most controversial. For a per-minute fee of a few pence, Amazon Rekognition can scan video footage and, for example, pick up people’s faces that can then be checked against a client’s database.
Und Vogels‘ Position:
Mr Vogels doesn’t feel it’s Amazon’s responsibility to make sure Rekognition is used accurately or ethically.
“That’s not my decision to make,” he tells me.
“This technology is being used for good in many places. It’s in society’s direction to actually decide which technology is applicable under which conditions.
“It’s a societal discourse and decision – and policy-making – that needs to happen to decide where you can apply technologies.” […]
He likens ML and AI to steel mills. Sometimes steel is used to make incubators for babies, he says, but sometimes steel is used to make guns.
Es gibt gute Argumente für seine Position:
* Amazon bietet digitale Funktionalitäten als On-Demand-Services an. Ob es simples Hosting ist oder Services höher im Stack spielt für die Arbeitsteilung grundsätzlich keinen Unterschied. AWS hostet AirBnB und trägt aber natürlich keine Verantwortung für zum Beispiel irreführende Listings auf AirBnB. Das Gleiche gilt für so etwas wie Gesichtserkennung. Ob bequemer Zugang zum Büro oder effizientere Massenüberwachung – Amazon bietet neutral einen Dienst an, der so oder so benutzt werden kann. Amazon verkauft die Waffe, die entweder für Sport oder Mord benutzt wird.
* Es ist natürlich Aufgabe der Regierung, Einsatzarten von Technologien zu regulieren.
* Nur mit dieser Position kann Amazon skalierend Dienste anbieten (ohne umfassende Bewertung der Kunden, die die Services in Anspruch nehmen.)
* und nur mit dieser Position bekommen große Services-Anbieter wie es Amazon mit AWS ist, keine zu mächtige Gatekeeper-Position innerhalb der Wirtschaft. Das sollte man nicht unterschätzen: Es dürfte nur noch wenige DAX-Unternehmen geben, die ohne AWS-APIs auskommen.
Und es gibt gute Argumente gegen seine Position:
* Es ist eine bequeme Position von Technologieanbietern, sich auf die Neutralität oder Vielfältigkeit der Einsatzarten ihrer Technologien zurückzuziehen und schulterzuckend auf Regulierung zu verweisen. Diese Position haben auch Twitter, Reddit, YouTube und Facebook lange verfolgt. Hier kommen Egalitarismus und Skalierbarkeit zusammen, Ideologie und simpler Opportunismus. (Es ist nicht nur wirtschaftlich für die Unternehmen zunächst erst einmal besser. Eine laissez-faire-Haltung setzt auch eher die Potenziale eines Plattformansatzes frei. Macht also die Plattform selbst erst wirklich attraktiv für Nutzer.) Wozu das komplette Ignorieren der Konsequenzen irgendwann führt, kann man bei eben Genannten heute sehen.
* Amazon muss sich fragen, ob sie, beispielsweise, konstanter(!) Profiteur der Massenüberwachung in einer Dikatur, China oder anderenorts, sein wollen und was das für das Image von Amazon bedeuten würde. (Ob das tatsächlich Auswirkungen auf das Geschäft hätte, ist unklar. Cisco beispielsweise hat sich eine goldene Nase mit der chinesischen Firewall verdient. Aber Cisco ist weitaus weniger endkundengerichtet als Amazon.)
* Rein opportunistisch: Wer um Talente wirbt, verliert vielleicht öfter als erhofft, wenn er weltweit beispielsweise Massenüberwachung ermöglicht und stolz darauf ist, sie immer effizienter zu machen. Wie problematisch schlechtes Image auch für Mitarbeitersuche werden kann, erlebt gerade Facebook.
Die eigentliche Frage, die ich mir hier stelle, ist folgende:
Ist Bilderkennung, konkret Gesichtserkennung, in diesem Kontext der Arbeitsteilung wirklich hundertprozentig vergleichbar mit, sagen wir, Cloud-Hosting?
Ich habe keine endgültige Antwort auf diese Frage. Rein theoretisch betrachtet, würde ich sagen: ja. Aber praktisch habe ich mit den Konsequenzen daraus starke Bauchschmerzen.
Aber diese Frage hat mich zu einer anderen Erkenntnis geführt.
Diese neuen Technologien sind von konstanter, unvereinbarer (vertikal nicht vereinter) Arbeitsteilung geprägt. Sprich: Es wird immer Unternehmen geben, die neue Technologien wie Spracherkennung und Bilderkennung als SaaS (Software as a Service) anbieten.
Beides sind konkrete Ausprägungen von machine learning, das von Datenskaleneffekten profitiert. Machine learning, das in der Öffentlichkeit gemeinhin unter KI firmiert, wird deshalb immer auch von SaaS-Arbeitsteilung geprägt sein. Machine learning wird extreme Auswirkungen auf Wirtschaft und Gesellschaft haben. Das ist also kein Randthema.
Wenn wir über Verantwortung nachdenken, aus Haftungsgründen oder anderen, dann kommen wir nicht darum herum, folgendes festzuhalten:
Wir müssen für jede Technologie gesondert einen gesellschaftlichen Konsens finden, wo genau im Technologie-Stack die Verantwortung für den Einsatz der jeweiligen Technologie beginnt. Das gilt regulatorisch wie auch aus Sicht der Öffentlichkeit. (Es können ja Dinge erlaubt sein, die trotzdem verpönt sind.)
Aktuell entwickeln wir uns regulatorisch in eine problematische Alle-haften-für-alles-Richtung. Wir sind, besonders in Europa, maximal noch zwei Online-Richtlinien davon entfernt, klassische Webhoster für alles verantwortlich zu machen, was auf Blogs veröffentlicht wird, die auf ihren Shared-Hosting-Angeboten liegen. Plattformanbieter wie YouTube und Twitter sind bereits verantwortlich für alles, was ihre Millionen User machen, sobald die EU-Urheberechtsrichtlinie in nationales Recht gegossen wurde.
Das ist ganz offensichtlich nicht die Lösung. Ganz offensichtlich zerstört man mit dieser Richtung wesentliche -fast alle emanzipatorischen!- Teile des digitalen Potenzials.
Deshalb muss jede Regulierung mit der Frage anfangen: Wo im Technologie-Stack soll die Verantwortung beginnen?
Die Antwort wird immer ein gesellschaftlicher Kompromiss sein. Die Antwort wird wahrscheinlich nicht technologieübergreifend einheitlich ausfallen.
Das Wichtigste also vielleicht: Nicht KI oder machine learning muss reguliert werden, sondern die konkrete Technologie, in diesem Fall Video/Bilderkennung.
Ich habe im jüngsten neunetz.fm Der Tag über dieses Thema laut nachgedacht. Wir werden auch im nächsten neunetzcast darüber sprechen.