28. Mai 2024 Lesezeit: 11 Min.

Nexus 208: Hitze in den KI-Debatten, Logistik und TAM: Knuspr vs. Quick Commerce vs. Wolt

Hi,

morgen spreche ich auf der re:publica (siehe unten). Unter anderem deshalb halten wir uns heute ein bisschen kürzer.

Marcel

Im Fokus dieser Ausgabe:

  • Tech-Diskurse werden zunehmend von Antagonismen bestimmt. Da ist KI keine Ausnahme. Angesichts der immensen Umbrüche nicht verwunderlich. Aber nicht hilfreich, wenn es um Einordnung und Verständnis geht.
  • Knusprs Lieferzeit von 3 Stunden am selben Tag verringert den addressierbaren Markt schnellerer Lieferdienste. Konkurrenzverschiebung entlang der Logistikgrenzen.
  • und mehr

Zitat des Tages

By referring to LLMs as AI, we've created a growing problem. AI suggests some form of "intelligence" (in the name!) And so by referring to "AI tools" (that are LLM tools!) many assume we're talking about this. But LLMs are not behaving like we expect "intelligence" to do so.

Gergely Orosz auf X


Themen der vorherigen Mitglieder-Ausgabe

Nexus 207: Meta verliert Creators, Google verliert Marken-Vertrauen:

Das Nexus-Briefing erscheint zwei Mal pro Woche, einmal öffentlich Dienstags und einmal Freitags für Mitglieder, welche alle durch ihre Mitgliedschaft reich und schön wurden.


re:publica 24: Wo ist Europas Gestaltungswille beim Social Web?

Ort & Zeit: Stage 2, 29.05.2024 18:00 - 18:30

Wo ist Europas Gestaltungswille beim Social Web? | republica:

ActivityPub, das Protokoll hinter Mastodon und anderen Diensten, gewinnt stetig an Popularität. Wordpress unterstützt das Protokoll, Newsdienste wie Flipboard ebenso. Weitere kommen regelmäßig dazu. Threads, der Mikrobloggingdienst von Meta, hat Anfang des Jahres begonnen, das Protokoll zu integrieren. Gleichzeitig gibt es erste Verbindungen zwischen dem Protokoll hinter Bluesky und ActivityPub: es wird ein Social Web.

Wir erleben einen epochalen Wandel in der Infrastruktur der vernetzten Öffentlichkeiten. Nach 20 Jahren, in denen Öffentlichkeit im Netz fast nur auf Angeboten von US-Konzernen möglich war, sehen wir jetzt entstehen, wovon wir lang nur geträumt haben.

Offene, diverse, vielfältige Strukturen, auf denen Öffentlichkeit auch mit europäischen Werten stattfinden kann. Nicht mehr allein bestimmt von den Befindlichkeiten und Anreizen der Mitarbeiter:innen US-amerikanischer Unternehmen.

Umso erstaunlicher, dass Mastodon in Deutschland gerade seinen Gemeinnützigkeitsstatus in Deutschland aberkannt bekommen hat. Umso erstaunlicher, wie ruhig es um dieses Thema ist.

Ein Aufruf an uns alle, mitzugestalten. Haben wir das verlernt?

The hill I'm willing to die on.


🤖 KI

Scarlett Johansson und die Temperatur in der KI-Debatte

Sky und Altman

Ars Technica fasst die Washington Post zusammen:

In kurz:

OpenAI hat eine Schauspielerin für die Stimme beauftragt, die jetzt selbst überrascht ist, dass ihre Stimme mit der Stimme aus Her verglichen wird.

In OpenAI’s defense, The Post reported that the company’s voice casting call flier did not seek a “clone of actress Scarlett Johansson,” and initial voice test recordings of the unnamed actress hired to voice Sky showed that her “natural voice sounds identical to the AI-generated Sky voice.” Because of this, OpenAI has argued that “Sky’s voice is not an imitation of Scarlett Johansson.”
What’s more, an agent for the unnamed Sky actress who was cast—both granted anonymity to protect her client’s safety—confirmed to The Post that her client said she was never directed to imitate either Johansson or her character in Her. She simply used her own voice and got the gig.
The agent also provided a statement from her client that claimed that she had never been compared to Johansson before the backlash started.
However, OpenAI apparently reached out to Johansson after casting the Sky voice actress. During outreach last September and again this month, OpenAI seemed to want to substitute the Sky voice actress’s voice with Johansson’s voice—which is ironically what happened when Johansson got cast to replace the original actress hired to voice her character in Her.

Als ich das Thema in der 206 ansprach, war ich nicht von einer geklonten Stimme ausgegangen. Das wäre absurd gewesen.

  • Es war aber klar, dass OpenAI sich an den populären Film so nah wie möglich heranrobben wollte.
  • Es war klar, dass Altmans "her"-Post auf X nicht clever war. Die Assoziation wäre so oder so schon stark gewesen. (Das Ergebnis ist vom Look and Feel sehr nah am Film.)
  • Diesen Tweet abzusetzen nachdem man mit Johannsson erfolglos verhandelt hatte, kann nur von jemandem kommen, der entweder keine Zurückhaltung kennt und/oder auf einen kleinen Skandal hoffte, der OpenAI länger in den Schlagzeilen hält.

Ich gehe von ersterem aus. Altman kennt keine Zurückhaltung. Altman bleibt eine Wild Card im negativen Sinne. Für OpenAI heißt das vor allem, dass sie sich letzte Woche keine Freunde in Hollywood gemacht haben.

Das alles ist nicht wahnsinnig relevant. Es zeigt uns aber recht eindeutig, wie hitzig das Thema KI bereits behandelt wird.

Culture War statt Diskurs

Es hat sich in den letzten Jahren eine neue Klasse an Onlinekommentator:innen herausgeschält, deren Position man am besten zusammenfassen kann mit "Die Tech-Branche ist böse".

So kindisch wie das klingt, ist es auch. Ich habe jetzt keine Zeit, das aufzudröseln, aber "die Techbranche" gibt es nicht. Diese Gruppe setzt außerdem Tech und Silicon Valley gleich und hat eine Bezeichnung für alle, die irgendwie in Tech-Unternehmen arbeiten: 'Tech-Bros'. (Das Lustige/Traurige an dieser gegenderten Herabsetzung ist nicht das bewusste Othering, sondern die Unsichtbarmachung aller Frauen, die in Tech arbeiten und das implizite Signal an alle Frauen im eigenen Milieu, dass sie "da drüben" nichts verloren haben.)

Alles, was diese Gruppe schreibt, macht und redet, hat zum Ziel, beim infantilen Fazit "Die Tech-Branche ist böse" herauszukommen.

Ein Beispiel: Ed Zitron, jemand, der in PR arbeitet und sich gerade erfolgreich zu einem neuen Tech-Antagonisten hochschreibt, ist (war?) überzeugt, dass das wahrscheinlichste Szenario ist, dass OpenAI Johanssons Stimme geklont hat: Sam Altman Is Full Of Shit. Diesen sehr langen Text hat er am 21.5. veröffentlicht. Am Tag, als die News herauskam. Das ist bis heute, eine Woche später, der letzte Text seines Newsletters. Für den Engagement bringenden Hass wurde alles stehen und liegen gelassen. Bis heute hat es kein Hinweis auf den Text in der Washington Post auf seine Site geschafft.

Das ist kein Zufall. Diese Gruppe wähnt sich einem übermächtigen Gegner gegenüber, der bekämpft werden muss. Jede Abwägung, jedes 'sowohl als auch', jedes Zaudern, jede Ungewissheit ist Schwäche, die man sich nicht erlauben kann. (Ja, es bleibt infantil.)

Die Gegenwehr muss mit aller Wucht kommen, weil Tech-Produkte so mächtig wurden.

Ein anderes Beispiel: Der Internettheoretiker Michael Seemann hat ebenfalls über OpenAI und Johansson geschrieben. Seemann ist vergleichsweise gut informiert. Es ist möglich, aber unwahrscheinlich, dass er den am Donnerstag in der Washington Post erschienenen Text nicht mitbekommen hat, als er am Sonntag in seinem Newsletter darüber schrieb.

Crypto-Nachwehen

Das eine solche Gruppe aufkommt und die Gunst der Stunde nutzt, ist angesichts der immensen, anhaltenden Umbrüche durch das Internet nicht verwunderlich. Man muss aber Antagonismus, der alles mit vorher feststehendem Ergebnis betrachtet, von echter kritischer Einordnung unterscheiden lernen.

Das anschaulichste Beispiel dafür war Crypto auf Twitter, als Crypto-Themen noch Engagement gebracht haben:

Die eine Seite hat Kursentwicklungen von Bitcoin und Ethereum nur gepostet, wenn die Kurse stiegen.
Die andere Seite hat Kursentwicklungen von Bitcoin und Ethereum nur gepostet, wenn die Kurse fielen.

Es war in seiner unfreiwilligen Symmetrie auch ein bisschen lustig.

Nur wohlwollend und mit einem geschlossenen Auge kann man sagen, dass man in so einem Fall von einer Seite (egal welcher) das halbe Bild bekomme. Es ist weniger: In erster Linie ist es viel Noise mit wenig Signal.

Wie bei Crypto-Themen so ist es jetzt und für die nächsten Jahrzehnte bei jedem Tech-Thema. Menschen fühlen sich unwohl bei jeder Veränderung, und wollen hören, dass sie das eigentlich auch ignorieren können, und Journalist:innen brauchen immer Gegengewichte zu Positionen. Diese Rollen werden in beiden Fällen am besten von den schamlosesten Personen ausgefüllt.

(Damit keine Missverständnisse aufkommen, ebenso schamlos sind diejenigen, für die alles immer jetzt sofort der komplette Umbruch ist und Unternehmen deshalb bereits gestern ihre Dienste buchen sollten.)

Regulierung und Ideologie

Eine problematische Folge, wenn an Verstehen desinteressierte Antagonisten zu ernst genommen werden, ist eine Zunahme an ideologischen blinden Flecken im Gesetzgebungsprozess.

Das beste Beispiel für eine ideologisch verrannte Regulierung ist die DSGVO. Deren vorher klar absehbare Folgen, dass sie eine Zentralisierung im Onlinewerbemarkt fördern wird und Nutzer:innen effektiv gar nichts gewinnen, wurden damals rigoros weggewischt. Die Expert:innen, die darauf hinwiesen, waren eben nicht so entschieden im Datenschutz und dem Recht der Selbstbestimmung verankert. Und zu wirtschaftsnah, getrost ignorieren. Die Ideologen hatten das Sagen und sie haben Unsinn in Gesetz gegossen.

Der Regulierungskampf bei KI hat längst begonnen. Da KI an die Grundfeste der White Collar Jobs gehen wird, wird es hier viele Möglichkeiten geben für vergleichbare Regulierungen, die niemandem helfen aber Dinge schlimmer machen werden.

Wer (Markt)Macht ändern will, muss sie verstehen. Anderenfalls wird sie eher zementiert.

"continue to scale": Größere, bessere Modelle

Ethan Mollick:

Feels pretty significant: Here's the CTO of Microsoft saying that the abilities of AI are going to continue to scale for the foreseeable future & the exponential growth of the scaling law isn't ending soon. Since Microsoft is training many of the biggest models, he knows more about what the impact of more compute will be than almost anyone.


To quote from Andrew Curran's transcript: 'we are nowhere near the point of diminishing marginal returns on how powerful we can make AI models as we increase the scale of compute'

Der CTO von Microsoft hat da natürlich ein Eigeninteresse. Microsoft baut seit über einem Jahr signifikante Teile von Azure um, um damit KI besser bedienen zu können, sowohl für Training als auch für Inferenz. KI sollte also teuer bleiben und besser werden.

Gleichzeitig kann man festhalten, dass eine Grenze bei den Modellen aktuell nicht ersichtlich ist.

Allerdings: Immer größere, aufwendiger trainierte Modelle dürften auch eine immer längere Trainingsphase haben.

Außerdem: Ich erwarte sowohl in Open Source als auch bei Mixture of Experts-Ansätzen mehr Fortschritte. Schon allein weil in beiden Feldern mehr Aktivität an sehr viel mehr Stellen stattfinden kann, weil die großen monolithischen Modelle nur von einer Handvoll Unternehmen trainiert werden können.

Aber: Ich mache eine regelmäßige Rundschau über die jüngsten interessanten KI-Papers für die FAZ. Ein überraschender Trend ist, dass GPT-4 (und seltener, weil weniger erforscht Claude 3) kleinere spezialisierte LLMs in deren Sektoren schlägt.

Ja, da wird mir auch ein bisschen schwindelig, aber es scheint so, dass eine emergente Fähigkeit von LLMs zu sein scheint, dass sie mit ausreichender Größe verallgemeinernde Fähigkeiten erlangen, die sich ohne weiteres Training auf höchstem Niveau manifestieren.

Möglich allerdings auch wieder, dass noch nicht ausreichend viel Anstrengung in die Entwicklung kleiner spezialisierter Modelle geflossen ist.

(Auch wieder ein Aspekt, bei dem man besonders Mistral aus Paris mit seinen effizienten MoE-basierten Modellen im Auge behalten sollte.)

Bessere Modelle nicht entscheidend

Selbst wenn der Microsoft-CTO unrecht hat, und das Ende der Fahnenstange bei GPT-4o und Claude 3 etc. erreicht wäre (unwahrscheinlich), selbst dann hätten wir mit den heutigen LLMs eine Basistechnologie, die uns locker die nächsten 10-15 Jahre beschäftigen würde.

Das rohe, immense Potenzial steckt noch in ungelenken Chatbot-UIs, Workarounds und aufwendigem Setup fest.


📱💸 Big Tech

Googles Problem: Suche ist nicht einfach

In The Atlantic gibt es einen guten Überblick, über erste Wege, die Leute gefunden haben, wie AI Overview schief geht.

Ich wiederhole mich, aber:

  1. LLMs werden auf absehbare Zeit an dieser Stelle Fehler produzieren. Heck, Menschen, die Suchinhalte zusammenfassen, würden immer Fehler produzieren.
  2. Suchen werden immer auch falsche Fakten nach oben bringen.

Beides macht offensichtlich, dass bei der UI von so etwas wie Googles AI Overview unbedingt der Kontext unterzubringen ist.

Microsoft hat Google zum Tanzen gebracht und Google hat keinerlei Rhythmus mehr.


🛒 Onlinehandel

Logistik und TAM: Knuspr vs. Quick Commerce vs. Wolt

Der Onlinesupermarkt Knuspr liefert innerhalb von 3 Stunden am selben Tag. Allein das verringert bereits den gesamten adressierbaren Markt (TAM), den konkurrierende Quick-Commercler abdecken könnten.

Das erinnert mich daran, dass Benedict Evans vor ein paar Jahren Onlinehandel nach Logistik eingeordnet hat. Die Grenzen der gewählten Logistik bestimmen das Geschäftsmodell. (Für Flink etwa: schnell, aber kleines Sortiment.)

Quick Commerce war nicht nur wegen der Pandemie in den deutschen Metropolen ein kurzzeitiger Hit, sondern auch weil die Online-Konkurrenz (Flaschenpost, Rewe, Bringmeister) erst am nächsten oder übernächsten Tag lieferte. Wenn man Glück hatte.

Mit Verweis auf das Zitat des Tages vom Freitag:

Flink+Rewe, also ein Bündel aus besonders schnell und (besonders) langsamem Vollsortiment hätte Potenzial, wenn man es endkundenseitig ohne zusätzliche Komplexität geliefert bekommt.

Wolt scheint sich da plattformseitig aktuell hinzurobben. Supermarktblog:

„Wir sehen den Kund:innenenbedarf und die Nachfrage jeden Tag steigen: Kund:innen kaufen bei Wolt Lebensmittel ein und kommen deswegen auch neu auf die Plattform“,
sagt Soukar. Mit einer versprochenen Lieferzeit von rund 35 Minuten verorte man sich zwar selbst nicht nicht in diesem Segment, aber der Quick Commerce als solches „hat auf jeden Fall seine Daseinsberechtigung“, ist er überzeugt.
Oder, anders gesagt: Aus Sicht von Plattformanbietern wie Wolt gibt es durchaus ein Kund:innenklientel, das bereit ist, geringe Aufschläge auf Lebensmittel zu zahlen, wenn die dafür innerhalb kurzer Zeit geliefert werden.
Inzwischen gibt es bei Wolt (ähnlich wie bei den Wettbewerbern) zahlreiche Online-Supermärkte in der App, die ausschließlich für das Liefergeschäft geöffnet haben: z.B. Händler, die eigentlich als Späti-Zulieferer agieren, aus ihrem Lager heraus aber auch direkt Convenience-Artikel an Kund:innen verkaufen. Manche Shop-Betreiber:innen gliedern zudem virtuelle Zusatzmarken aus, um damit eine spezielle Kund:innengruppe zu erreichen (z.B. ein virtueller „Indian & Srilankan Grocery Store“, der aus einem großen Asia-Shop mitbetrieben werden kann).
Richtig interessant wird’s, sobald Wolt seine im Heimatland bereits getestete <a href="https://press.wolt.com/en-WW/236927-double-order-double-the-convenience-zero-extra-delivery-cost#:~:text=Helsinki%2C%2024.04.,time%20with%20one%20delivery%20fee.&amp;text=Customers%20can%20place%20their%20first%20order%20as%20usual.">„Double Order“-Funktion</a> auch für Deutschland freischaltet: Dann sollen Kund:innen nämlich Bestellungen aus zwei Restaurants und/oder Geschäften miteinander kombinieren können, um sie ohne zusätzliche Liefergebühr zu erhalten. Auf diese Weise lässt sich noch ein Eis vom Kiosk zur Pizza aus dem Restaurant bestellen – theoretisch aber auch ein Lebensmitteleinkauf aus den Sortimenten von zwei in der Nähe gelegenen Handelspartnern erledigen.
Wann „Double Order“ nach Deutschland kommen soll, hat Wolt bislang noch nicht kommuniziert.

Hochkomplexe Dinge wie ein "Double Order" mit positivem Deckungsbeitrag sind das, was die Netzwerkeffekte für Lieferplattformen wie Wolt erst richtig freischalten.


✴️ Mehr Wissenswertes

Bei Klaus Eck habe ich gelernt, dass man auf LinkedIn Listen anlegen kann. This changes everything. KI-Trends für Corporate Influencer - by Klaus Eck:

Wer auf LinkedIn einen guten Überblick über wichtige Kontakte erhalten will, kann dazu 𝗟𝗶𝗻𝗸𝗲𝗱𝗜𝗻 𝗟𝗶𝘀𝘁𝗲𝗻 nutzen. In meinem Beitrag zum LinkedIn Hack erkläre ich, wie Du sie mit wenig Aufwand selbst erstellen und nutzen kannst.

Du kannst es direkt ausprobieren: So sieht eine LinkedIn Liste zum Thema KI von mir aus.


KI-Kopfhörer lassen die Träger:in einer einzelnen Person in einer Menschenmenge zuhören, indem die Person nur einmal angesehen wird.  UW News:

A University of Washington team has developed an artificial intelligence system that lets a user wearing headphones look at a person speaking for three to five seconds to “enroll” them. The system, called “Target Speech Hearing,” then cancels all other sounds in the environment and plays just the enrolled speaker’s voice in real time even as the listener moves around in noisy places and no longer faces the speaker.

Kein LLM-Thema, aber das geht in die Richtung von dem was ich oben meinte mit ungehobenem Potenzial der aktuellen Technologie.


Substack feiert das 10jährige Jubiläum ihrer Inspiration, Stratechery. The Age of the Sovereign Creator:

The first is that the business model that Ben devised for Stratechery inspired the earliest version of Substack. At that time, in 2017, Ben would publish one free weekly article on stratechery.com and then offer readers three more posts a week by email if they subscribed for $100 a year or $10 a month. He accepted no advertising and considered his subscribers his customers. Ben was clearly very successful with that model—Substack CEO Chris Best and I calculated that he was making a seven-figure income from a spare bedroom in his Taipei apartment—and frequently said that more writers should try it. We wondered why more didn’t.
Seven years on, there are now more than 3 million paid subscriptions to Substack publications.
This deal also puts the onus on the platform. To survive as a business, Substack must put itself in service of creators; we must keep proving our value to them. Because if we don’t? They can simply pack up and leave, in search of a better deal elsewhere. Indeed, to some business analysts (including, ironically, Ben Thompson), this approach leaves Substack too vulnerable to losing creators. What this critique misses, however, is that there are now enough examples of creators enjoying financial success and true independence for others to feel more comfortable demanding control. They don’t want to be stuck in a digital Hotel California, where they can log in anytime they like but never leave. For a platform of the post-Web 2.0 era to succeed, it will need to keep creators’ trust by guaranteeing their ownership. It’s the way things should be. Platforms should not own people; people should own platforms.
Today, the Substack network accounts for more than 25% of all paid subscriptions on the platform.


Garbage Day liefert Newsletter-Zahlen. Excuse the navel-gazing:

Right now, Garbage Day has 68,809 subscribers, an average open rate of 42%, and a clickthrough rate of 21%. Over on the Garbage Day Discord, there are 2,051 total users, sending around 20,000 messages a month (omg lol), with around 300-400 active users during peak times.
These are all good numbers. About 5% of my audience pays for a subscription, and between that, ad revenue, and a few editorial partnerships we have right now, we’re at a place where we’re at least stable. Which is a relief because Garbage Day’s growth has changed quite a bit.

~

Marcel Weiß
Unabhängiger Analyst, Publizist & Speaker ~ freier Autor bei FAZ, Podcaster auf neunetz.fm, Co-Host des Onlinehandels-Podcasts Exchanges
Großartig! Du hast Dich erfolgreich angemeldet.
Willkommen zurück! Du hast Dich erfolgreich eingeloggt.
Du hast neunetz.com erfolgreich abonniert.
Dein Link ist abgelaufen.
Erfolg! Suche Dein in Deiner E-Mail nach einem magischen Link zur Anmeldung.
Erfolg! Deine Zahlungsinformationen wurden aktualisiert.
Deine Abrechnung wurde nicht aktualisiert.