Regulierung und das sie begleitende Säbelrasseln. Tagesschau:
Der ChatGPT-Anbieter OpenAI denkt angesichts der geplanten Regulierungen der Europäischen Union (EU) für künstliche Intelligenz (KI) über einen Rückzug aus Europa nach. „Der derzeitige Entwurf des EU-KI-Gesetzes wäre eine Überregulierung“, sagt Sam Altman, Mitgründer und Chef der Microsoft-Beteiligung OpenAI. Zwar wolle sich der Konzern bemühen, neue gesetzliche Regulierungen einzuhalten, doch im Zweifelsfall wäre das Unternehmen bereit, dem europäischen Markt den Rücken zu kehren, so Altman.
Es können verschiedene Dinge gleichzeitig wahr sein.
Ja, was die EU mit dem AI Act plant, ist wenig überraschend die Art von Regulierung, die gleichzeitig dank Missverständnis des zu regulierenden Sektor viele ungewollte Nebeneffekte hat und ihr Ziel verfehlen wird. Erinnert auf viele Arten an die DSGVO! (siehe unten)
Nein, OpenAI wird die EU nicht verlassen. Dafür ist der Aufbau von Reichweite, Markenbekanntheit und potenziellen Netzwerkeffekten, auch wenn sie noch so schwach sein mögen, zu wichtig.
OpenAI/Altman will die Richtung beeinflussen, wie die EU in naher Zukunft LLMs und andere ML-Ansätze regulieren wird. OpenAI will gehört werden. (Da die EU erstaunlich schnell ist, werden viele Länder weltweit sich anschauen und potenziell daran orientieren, was die EU macht.)
Was passieren würde ist, dass OpenAI ein festgeschriebenes, schnell veraltendes Modell, das in der EU registriert wird, anbietet.
Ist das potenziell schlecht für OpenAI? Nicht zwingend.
Eine der vielen Gefahren, die OpenAI in den nächsten Jahren die Marktführerschaft streitig machen können, ist vor allem der gesamte, gerade unübersichtlich schnell wachsende Open-Source-Bereich der LLMs. Open Source wird unter dem AI Act sehr viel schwerer bis unmöglich werden.
Vor allem verliert Open Source unter dem AI Act den strukturellen Vorteil, dass hier schnell gleichzeitig von vielen Seiten Verbesserungen kommen und Spezialisierungen in alle Richtungen parallel vorangetrieben werden. Vielfalt und Geschwindigkeit in Open Source werden mit dem AI Act, so wie er jetzt geplant ist, minimiert. Dann können sich auch kleine Organisationen mit proprietären Modellen wie OpenAI im EU-Markt gemütlich zurücklehnen.
Selbst wenn OpenAI findet, ein Exempel statuieren zu müssen und die EU als Markt bereit wäre aufzugeben, die obige Drohung also ernst zu nehmen wäre, und das Startup die „Europäische Union verlassen“ würde, selbst dann müssen wir die besondere Plattform-Situation von OpenAI mitdenken.
Denn quasi alles, was OpenAI anbietet ist auch bei Microsoft zu finden.
Zum Beispiel die von mir antizipierten GPT-Plugins so wie bei OpenAI sind mittlerweile von Microsoft angekündigt worden.
Besonders wichtig aber sind hier die GPT-APIs bei Azure.
Es ist völlig ausgeschlossen, ausgeschlossen!, dass Microsoft auf seinen enormen Wettbewerbsvorteil verzichtet, die Modelle von OpenAI per API im Azure-Portfolio anbieten zu können. Während AWS etwa immer noch Äquivalentes im Angebot trotz Ankündigung fehlt.
Der gleiche Anreiz gilt bei Microsoft für die Integrationen in Bing, Teams und co.
Das heißt, mindestens Microsoft wird immer alles versuchen, regulierungskonforme Versionen der OpenAI-Modelle im EU-Markt anzubieten. Vorausgesetzt, das ist technisch überhaupt machbar, natürlich.
That being said. Der geplante AI Act ist eine Katastrophe. Ich habe in Nexus 153 darüber geschrieben. Hier der komplette Textblock zum AI Act:
Sascha Lobo auf Spiegel Online über Überregulierung in der EU zum Thema KI:
Eines der Alarmzeichen ist eine Meldung zu einem Entwurf des EU-Parlaments: Es heißt nämlich, das EU-Parlament wolle »die weltweit erste umfangreiche Regulierung der KI« vorlegen. In einem Halbsatz wird das gigantische, gesellschaftliche, politische Problem der EU, Europas offensichtlich. Die USA wollen die beste KI der Welt, China will die effizienteste KI der Welt, Europa will die regulierteste KI der Welt, und zwar als Erster, hurra!
Es gibt ernsthaft EU-Abgeordnete, die auf die Frage nach den besten Exporten aus Europa antworten: die Datenschutzgrundverordnung DSGVO! Weltweites Erfolgsmodell! So als sei Regulierung für sich genommen ein tolles Produkt, nach dem die Menschen begeistert fragen, das Europa Reichtum bringt und Ansehen verschafft in der Welt.
Vor einigen Wochen meinte jemand online, ob diejenigen, die für den Cookie-Banner verantwortlich sind, wirklich auch diejenigen sein sollten, die KI regulieren.
Das ist natürlich ein bisschen unfair, es sind nicht umfänglich die gleichen Personen, „nur“ der gleiche regulatorische Körper mit den gleichen Prozessen.
Es wirft allerdings eine unschöne Wahrheit auf. Wir können alle nach Regulierung rufen, aber wie ernsthaft kann dieser Ruf sein ohne eine Auseinandersetzung mit der Tatsache, dass alle Gesetze und Richtlinien der jüngeren Zeit, auf EU-Ebene und dann auf nationaler Ebene, schlicht schlecht umgesetzt waren, zumindest soweit ich mich erinnern kann: Leistungsschutzrecht für Presseerzeugnisse, NetzDG, DSGVO, usw. (DSA und DMA machen eine vergleichsweise gute Figur, welche unbeabsichtigten Folgen sie haben werden, werden wir aber erst ab 2024 sehen.)
Jemand meinte mal, dass eine walkable city, in der Wohnraum zu teuer für Busfahrer:innen und Lehrer:innen ist, keine walkable city sondern ein Themepark ist. Das lässt sich auf die Regulierungsdebatte übersetzen. Jeder Ruf nach Regulierung ohne eine Auseinandersetzung damit, dass unsere aktuellen Gesetzgebungsprozesse in EU und Deutschland nachweislich und zuverlässlich zu Gesetzesrahmen führen, die ihr proklamiertes Ziel nicht erreichen und massive negative Nebenfolgen haben, ist nur eine Themeparkversion von politischer Debatte. Erst recht wenn wir von der bis dato komplexesten zu regulierenden Thematik sprechen, LLMs und generative KI allgemein.
Besonders die DSGVO und ihr Cookiewahn sind ein gutes Beispiel dafür. Entgegen der Warnungen aller Expert:innen, die nicht auf der Gehaltsliste von Axel Springer saßen, wurde die DSGVO umgesetzt mit einem grundlegenden, gerade zu bizarren Missverständnis einfachster digitaler Zusammenhänge.
Das vorhersehbare Ergebnis war eine Stärkung der Online-Werberiesen Facebook und Google und eine massive Schwächung der kleineren Werbenetzwerke daneben.
Ich habe bis heute kein nachvollziehbares Argument gesehen, wie die DSGVO Endnutzer besser gestellt hat.
Die indirekten negativen Folgen durch eine weitere Konzentrierung auf wenige Knoten dürften dagegen nicht gering sein.
Das fehlt mir in der Debatte: Wie bekommen wir vernünftige Regulierung für komplexe Themen wie KI/ML? Es reicht nicht, einfach gegen Regulierung allgemein zu sein. Und es reicht auch nicht einfach nur für Regulierung, egal wie, zu sein.
Und damit kommen wir zum AI Act.
Technomancers.ai, eine junge Publikation zu LLM-Themen mit einem interessanten Site-Footer:
In a bold stroke, the EU’s amended AI Act would ban American companies such as OpenAI, Amazon, Google, and IBM from providing API access to generative AI models. The amended act, voted out of committee on Thursday, would sanction American open-source developers and software distributors, such as GitHub, if unlicensed generative models became available in Europe. While the act includes open source exceptions for traditional machine learning models, it expressly forbids safe-harbor provisions for open source generative systems.
Any model made available in the EU, without first passing extensive, and expensive, licensing, would subject companies to massive fines of the greater of €20,000,000 or 4% of worldwide revenue. Opensource developers, and hosting services such as GitHub — as importers — would be liable for making unlicensed models available. The EU is, essentially, ordering large American tech companies to put American small businesses out of business — and threatening to sanction important parts of the American tech ecosystem.
Lizenzierungen für AI-Modelle bedeutet: Nur Konzerne werden das in der EU machen.
Die jüngsten Durchbrüche in der generativen KI von Image-Diffusion über Audio und Video bis hin zu LLMs ist das Ergbnis einer Gemengelage aus Tätigkeiten privater Unternehmen, Forschungseinrichtungen, Online-Communities und Open-Source-Kollaborationen.
Was der AI Act abverlangt, funktioniert für ein extrem kollaboratives Feld nicht, es funktioniert nur für streng hierarchisch organisierte große Unternehmen, die separat im stillen Kämmerlein an ihren eigenen Projekten arbeiten, diese lizenzieren und dann anbieten.
Es ist, mal wieder, wie immer, ein zutiefst rückwärtsgewandter Blick auf die Prozesse, wie Wertschöpfung digital entsteht. Statt die organisatorische Vielfalt zu berücksichtigen, wird vom Konzern als einziger zu beachtender Organisationsform ausgegangen, mit Fußnote für Resarch für die Universitäten. Vielleicht liegt hier auch die überraschende Geschwindigkeit, mit der der AI Act Form annimmt. Es muss massive Lobbyanstrengungen europäischer Konzerne im Hintergrund geben.
Die funktionengebundene Registrierung denkt einerseits die iterative Art jeder digitalen Technologie nicht mit (mal wieder!), sie ist bereits heute unrealistisch einschränkend:
You have to register your „high-risk“ AI project or foundational model with the government. Projects will be required to register the anticipated functionality of their systems. Systems that exceed this functionality may be subject to recall. This will be a problem for many of the more anarchic open-source projects. Registration will also require disclosure of data sources used, computing resources (including time spent training), performance benchmarks, and red teaming. (pg 23-29).
Man beachte hierzu auch das unten im KI-Segment angeführte Paper zur Effizienzsteigerung und Kostenersparnis durch Modell-Kaskaden.
Das gleiche Argument gilt für Modelle, die per API angeboten werden und weiterentwickelt werden:
API Essentially Banned. API’s allow third parties to implement an AI model without running it on their own hardware. Some implementation examples include AutoGPT and LangChain. Under these rules, if a third party, using an API, figures out how to get a model to do something new, that third party must then get the new functionality certified.
Das heißt, soweit ich das jetzt verstehe, dass z.B. OpenAI unter dem aktuellen Stand des AI Acts künftig per Azure und eigener API eine festgeschriebene, lizenzierte Version anbietet und EU-Unternehmen auf dieser festgeschriebenen Version sitzen bleiben, bis OpenAI die nächste größere Version für die EU-Lizenzierung bereit macht. Während alle API-Kunden außerhalb der EU die aktuelle Version abrufen.
Da die langsamere Geschwindigkeit durch die Lizenz-Situation alle Anbieter trifft UND die Konkurrenz durch Open-Source-Projekte und Startups in der EU voraussichtlich sehr viel geringer ausfallen wird, könnte die Diskrepanz zwischen den EU-Versionen der Modelle und dem Rest der Welt sehr groß sein. Ich sehe keine starken wettbewerblichen Anreize für (ressourcenintensive?) schnelle Lizensierung, die den Abstand gering halten würde.
Der AI-Act mach LoRa unmöglich. LoRA steht für Low-Rank Adaptation und ist eine Training-Art zum Finetuning von aktuell vor allem Stable Diffusion-Modellen. Stable Diffusion ist bekanntlich Open Source. ie Mac-App „Draw Things“ etwa erlaubt den Download verschiedener LoRA-Modelle.
LoRA Essentially Banned. LoRA is a technique to slowly add new information and capabilities to a model cheaply. Opensource projects use it as they cannot afford billion-dollar computer infrastructure. Major AI models are also rumored to use it as training in both cheaper and easier to safety check than new versions of a model that introduce many new features at once. (pg 14).
If an Opensource project could somehow get the required certificates, it would need to recertify every time LoRA was used to expand the model.
Es handelt sich bei solchen Opensource-Projekten sehr oft um Nebenbeiprojekte, die bei jedem Anzeichen von gesetzlicher Grauzonigkeit sofort auf Nummer sicher gehen. In diesem Fall also die EU möglichst aussperren. Lizenzpflicht zerstört hier jede Open-Source-Tätigkeit in der EU.
Last not least noch ein interessanter Aspekt, dass große LLMs bessere Ergebnisse in ihren Feldern produzieren können als die heute eingesetzten, sehr beschränkten ML-Algorithmen:
To top everything off, the AI Act appears to encourage unsafe AI. It seeks to encourage narrowly tailored systems. We know from experience — especially with social media — that such systems can be dangerous. Infamously, many social media algorithms only look at the engagement value of content. They are structurally incapable of judging the effect of the content. Large language models can at least be trained that pushing violent content is bad. From an experience standpoint, the foundational models that the EU is afraid of are safer than the models they are driving.
Ben Thompson schreibt auf Stratechery über AI bei Big Tech:
Once again there is a conventional wisdom take: „Haha silly Europe and its regulations means it will miss out on AI“, and, for now, that’s obviously true. It seems like a safe bet, though, that Google and Microsoft and Meta and other tech giants will indeed be a „helpful and engaged partner to regulators“ to their ultimate benefit. […]
What is worth noting is that it is very much in Google’s interest that this alignment becomes concrete: the best way to forestall truly disruptive technologies is to regulate them away.
Der AI Act ist ein Geschenk an Meta, Google, Microsoft, OpenAI und Amazon. Auch wenn er von europäischen Konzernen im Hintergrund getrieben werden sollte.
Verlierer sind alle, die an Open-Source-Modellen arbeiten, und alle die von mehr Wettbewerb an dieser Stelle in der EU profitieren würden.
Die einzige Frage bleibt, wie die USA darauf reagieren wird, dass die EU US-Unternehmen für ihre OS-Modelle haftbar machen will.
BTW.: Die negativen Folgen generativer KI, z.B. Deepfakes und die kommende Spamflut, wird der AI Act nicht aufhalten.
Wer vom Gegenteil ausgeht, hat die letzten 20 Jahre friedlich geschlafen. Würde ich jetzt auch gern.
Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.