Das Wall Street Journal berichtet heute, dass OpenAI auf der aktuellen Suche nach neuen Investoren mit einer Bewertung von 90 Milliarden US-Dollar arbeitet, was ungefähr einer Verdreifachung der Bewertung seit Anfang des Jahres entsprechen würde.
OpenAI ist also fast ein Jahr nach dem Launch von ChatGPT weiterhin auf einem einzigartigen Höhenflug. Das ist nicht überraschend. Large Language Models sind völlig zu recht aktuell das prominenteste Techthema.
Siehe hierzu auch das Briefing zu Large Language Models für Unternehmen, das ich gemeinsam mit InnoQ Anfang des Sommers herausgebracht habe. Einen besseren Einstieg in die möglichen Einsatzarten und die Reichweite der Use Cases gibt es nicht auf deutsch. (Und, ich würde sagen, auch nicht auf englisch.)
OpenAI ist zwar aktuell Marktführer und Qualitätsführer. Das überdeckt aber, dass diese Situation absehbar nicht von Dauer sein wird.
Wir können bereits heute einige strukturelle Grenzen identifizieren:
- Wie ich gestern in KI-Macht? OpenAI als Komponente bei Azure, Anthropic als Komponente bei AWS schrieb, haben die LLM-Startups wie OpenAI einen strukturellen Druck, nicht nur viel Kapital einzusammeln, sondern besser noch gleich mit Hyperscalern wie Azure oder AWS strategisch zusammenzugehen. Statt den VC-Scheck direkt weiterzureichen.
- Die strategische Partnerschaft zwischen OpenAI und Microsoft hat 2 Folgen, die erste Folge: Alles, was OpenAI baut, kann Microsoft für seine eigenen Produkte nutzen und in Azure als API anbieten. Die Kerntechnologie von OpenAI ist nicht exklusiv. Als Qualitätsführer ist das eine starke SaaS-/Zuliefererausgangslage. Aber es ist nicht Weltdominanz.
- Die zweite Folge der Partnerschaft: AWS und co. sind motiviert, die vielversprechendsten Konkurrenten wie Anthropic zu finanzieren und hochzupäppeln. Es ist kein Wunder, dass sowohl Google als auch Amazon viel Geld in Anthropic stecken. Sie wollen Microsoft keinen exklusiven Vorteil im harten, lukrativen Cloud-Markt lassen.
- Aus 1+2+3 folgt, dass die großen, allgemeinen LLMs als APIs bei den Hyperscalern verfügbar sein werden, egal ob proprietär oder Open Source. Daraus wiederum folgt, dass die Qualität der Technologie allein nicht zum Geschäftsmodellgraben beiträgt.
- Meta hat ein Interesse, dass kein neuer Gatekeeper heranwächst. Apple und Google reichen vollkommen aus, vielen Dank. Meta arbeitet als an eigenen Modellen und veröffentlicht einige davon als Open Source, wie jüngst Llama 2, das erste Modell von Meta, das auch frei für kommerzielle Nutzung ist. (Mit Einschränkungen.) Ein wichtiger Baustein für ein großes Metaverse sind KI-generierte Elemente. Meta hat hier ein langfristiges Interesse. (Unabhängig davon ist die Bewertung, wie sinnvoll die VR-Strategie bei Meta heute ist.)
- Open Source: Auf HuggingFace sind aktuell 343.584 Modelle gehostet. Das klingt nach mehr als es ist, weil viele Modelle nur leicht von einander abweichende finegetunte Schwestern sind. Aber hier entsteht bereits ein enormer, weitreichender Fundus, der, siehe unten, die Basis für viele kommende KI-Ausprägungen bilden wird.
- B2B & Security: Azure und AWS können den Zugang zu LLM-APIs wasserfest datensicher machen. Sie sind gut darin, sich an die jeweiligen Gesetze der Länder anzupassen. Das ist die Macht großer Konzerne. Aber trotzdem bleibt ein strukturelles Restrisiko. Nicht jedes Unternehmen hat das Grundvertrauen, den Kern seiner Daten einem LLM in der Cloud zu geben. Besonders nicht jetzt, da wir noch am Anfang passender Security-Frameworks für LLMs und ihrer emergenten Eigenschaften stehen. On-Premise dürfte für interne LLM-Einsatzarten bei Unternehmen deshalb relevant werden. Und damit auch wieder oft Open Source und/oder selbsttrainiert. Die Frameworks und Tools hierfür entstehen gerade erst.
- Spezialisierung auf der Technikseite: Es ist unwahrscheinlich, dass große, teuer zu trainierende und teuer zu betreibende monolithische Modelle die alleinige Zukunft sind. Modellkaskaden (Nexus, Paper) sind ein Weg, MoE (Mixture of Experts, die Verbindung mehrerer, kleinerer, spezialisierter Modelle) ein anderer Weg, um die bestehenden Modelle effizienter zu machen. Günstiger, schneller, sicher auch bald besser. Es ist alles andere als offensichtlich, ob OpenAI seinen Qualitätsvorsprung hier wird halten können.
- Spezialisierung auf der Einsatzseite: LLM-Fähigkeiten sind sehr vielfältig einsetzbar, in jeder Branche. (siehe Briefing) Diese Vielfalt wird aktuell noch komplett unterschätzt. Aus dieser enormen Bandbreite der Einsatzarten folgt unter anderem, dass sowohl auf der Interface-Seite als auch auf der Modell-Seite sehr(!) viel Ausdifferenzierungspotenzial vorhanden ist. So viel, dass ich entgegen dem landläufigen Tech-Common-Sense davon ausgehe, dass auch einige ChatGPT-Wrapper Chancen auf eine rosige Zukunft haben. (Last not least, weil die Modelle im Backend potenziell austauschbar sind.) OpenAIs Plugins können nicht die Interfaces für eine ganze Welt abdecken.
KI ist zu groß für OpenAI.
Das heißt nicht, dass OpenAI nicht sehr groß werden kann. Es heißt auch nicht, dass Schieflagen in den Modellen keine schwerwiegenden Folgen haben können. Wir befinden uns aktuell noch in einer Situation, in der wenige Zulieferer die Basis für eine neue Tech-Generation stellen. Und OpenAI dominiert noch mit großem Abstand diese bereits kleine Gruppe.
Diese Situation aber wird temporär sein.
KI ist zu groß für OpenAI.