Amazon plant wohl, in Anthropic zu investieren, bis zu vier Milliarden US-Dollar laut Financial Times.
Anthropic besteht massgeblich aus Ex-OpenAI-Mitarbeitern und hat unter anderem das „Claude“-Modell gebaut.
Ich habe auf neunetz.com für Mitglieder schon einige Male über die besondere Plattformsituation bei OpenAI geschrieben, die aus der engen Bindung an Microsoft entsteht. Anthropic (das massgeblich aus Ex-OpenAI-Mitarbeitern besteht) scheint sich in eine ganz ähnliche Richtung zu entwickeln.
In Nexus 148 schrieb ich über die exklusive Verfügbarkeit bei Azure und Microsoft von allem, was OpenAI baut:
Wir werden also 2 Plattformen mit der selben zugrundeliegenden Technologie haben, die sehr ähnlich funktionieren, und teilweise austauschbar sind.
Im April diesen Jahres schrieb ich (öffentlich):
Die Azure-Seite des Deals stellt außerdem sicher, dass man OpenAIs Kerntechnologie bequem im Bouquet als Cloud-API bei sich einbauen kann.
Das wirft viele spannende Fragen auf.
Monopolist als B2C-Plattform ist etwas anderes als Monopolist in der Backend-Infrastruktur. Und es ist sehr unwahrscheinlich, dass OpenAI als letzteres überhaupt mittel- bis langfristig die Qualitätsführerschaft wird halten können.
Die Macht der Hersteller der LLMs wird neben anderen Aspekten schon allein davon beschränkt, dass die großen Cloud-Computing-Anbieter sie eng an sich binden. Was strukturell auch nicht überrascht. Training ist teuer und etwa Amazon und Microsoft haben die Ressourcen und die Rechenzentren.
Amazon, Microsoft und Google (das seinerseits ebenfalls ein großer Investor in Anthropic ist) wiederum haben natürlich großes Interesse daran, LLM-Funktionalität in ihren Cloud-APIs anbieten zu können.
Im Ergebnis heißt das, dass OpenAIs Modelle als Komponenten bei Azure und Anthropics Modelle als Komponenten bei AWS verfügbar sind.
[…] Link zum Text: KI-Macht? OpenAI als Komponente bei Azure, Anthropic als Komponente bei AWS […]