Willkommen bei einer weiteren freien Ausgabe des Social Media Watchblogs. Wenn du künftig alle Ausgaben in voller Länge lesen möchtest, kannst du hier Mitglied werden: socialmediawatchblog.de/mitgliedschaft.

Falls du kein Interesse an einer Mitgliedschaft hast, unsere Arbeit aber schätzt und uns gern unterstützen möchtest, findest du hier einen Link zu unserer Kaffeekasse: buymeacoffee.com/socialmediawatchblog

Was ist

Am Dienstagabend hat Google seine jährliche Entwicklerkonferenz I/O mit der Keynote eröffnet. Ein halbes Dutzend Top-Managerïnnen rund um Google-Chef Sundar Pichai schwärmten auf der Bühne von Sprachmodellen, einer neuen Ära der Online-Suche und dem ultimativen Ziel: einem universellen KI-Assistenten, der bei jedem Problem und in jeder Lebenslage helfen soll.

Den Hang zu Superlativen hat sich Google offenbar von den iPhone-Gottesdiensten abgeschaut, die Apple regelmäßig feiert. Alle Produkte sind demnach die schnellsten, besten und intelligentesten, die Google jemals entwickelt hat. Bei Apple hält dieser Zustand immerhin ein Jahr, bei Google höchstens ein paar Monate. KI verändert sich schneller als iPhones, und manchmal fällt es schwer, den Überblick zu behalten.

"Jahrzehnte der Forschung werden jetzt zur Realität für Menschen auf der ganzen Welt", sagte Pichai in einem Vorgespräch mit Journalistïnnen. "Es sind mehr Intelligenz und Wissen verfügbar denn je. Wir befinden uns in einer neuen Phase der Nutzung von KI."

Auf der Bühne wimmelte es von Modellen (Gemini 2.5 Pro und Flash, Veo 3, Imagen 4), die Rekordergebnisse in allen möglichen Benchmarks aufstellen (USAMO, LiveCodeBench, MMMU) und Ranglisten wie WebDev- und LMArena anführen. Google warf mit Namen, Projekten und Abkürzungen um sich. Nicht nur Casey Newton kam die ganze Veranstaltung manchmal vor wie ein "Fiebertraum" (Platform).

Wir verzichten deshalb darauf, alles abzubilden, was Google vorgestellt oder angekündigt hat. Dafür verweisen wir auf die I/O-Übersichtsseite des englischsprachigen Google-Blogs, die 27 einzelne Blogposts enthält (auf der deutschen Seite steht nur ein Bruchteil, weil viele Funktionen zunächst nur in den USA starten). Etwas besser kuratiert und komprimiert ist die Liste mit den 15 wichtigsten Ankündigungen, die The Verge zusammengestellt hat.

Wir fassen etwas stärker zusammen und konzentrieren uns auf sieben Erkenntnisse, die sich aus der I/O ableiten lassen.

1. Die Websuche ist tot, lang lebe KI

  • Vor genau einem Jahr führte Google die AI-Overviews (AIO) in den USA ein (SMWB), im März wurde die Funktion auch in Deutschland freigeschaltet (SMWB).
  • Damit verwandelt sich die Suchmaschine Schritt für Schritt in eine Antwortmaschine, die bei vielen Fragen eine KI-generierte Zusammenfassung einblendet. Bei bestimmten Suchanfragen fasst Googles Sprachmodell Gemini die zentralen Aussagen unterschiedlicher Quellen zusammen.
  • AIO zeigt Google ganz oben an, die traditionellen Links zu anderen Webseiten rutschen nach unten. Das wirft existenzielle Fragen für alle auf, deren Geschäftsmodell auf Klicks von Google beruht. Bereits jetzt zeichnet sich ab, dass der Google-Traffic sinken wird (SMWB).
  • Jetzt geht Google einen Schritt weiter. Der sogenannte AI-Mode ersetzt Links komplett, stattdessen spuckt Gemini eine längere Zusammenfassung aus. Man kann sich mit der KI unterhalten wie mit einem Chatbot. Angeblich führt das dazu, dass Menschen ihr Suchverhalten ändern und deutlich längere, komplexe Fragen stellen.
  • Dadurch tritt die klassische Suche endgültig in den Hintergrund. Aus Information werde Intelligenz, sagt Googles Such-Chefin Liz Reid. KI sei die Zukunft der Suche, und die Suchergebnisse, wie Google sie bislang präsentiert, seien immer nur ein "Konstrukt" gewesen, um die Struktur des Webs abzubilden (The Verge).
  • Jetzt ist Gemini in der Lage, selbst Informationen aus unterschiedlichen Quellen zu beziehen und zusammenzufassen. Für Nutzerïnnen ist das bequem, für viele Medien und Unternehmen eher bedrohlich.
  • Der AI-Mode ist ab sofort für alle Menschen in den USA als eigener Tab in der Suche sichtbar, weitere Länder sollen folgen.

2. Chatbots sind tot, lang lebe KI

  • Mit ChatGPT prägte OpenAI das Bild, das viele Menschen von generativer KI haben. Man tippt in ein kleines Textfenster, ein Sprachmodell spuckt eine Antwort aus.
  • Der gigantische Erfolg überraschte selbst OpenAI, Google rief den Krisenmodus aus, und fast alle Konkurrenten kopierten das Prinzip. Bard war eher peinlich, spätestens mit Gemini 2.5 ist Google wieder auf Augenhöhe.
  • Doch von Anfang an war klar, dass Unternehmen andere Möglichkeiten entwickeln würden, um mit KI zu interagieren. Im Netz dominieren Bilder, Audio und Video – warum sollte ausgerechnet KI dauerhaft auf Text beruhen?
  • Deshalb setzen Google und OpenAI schon länger auf Multimodalität, also Modelle, die mit allen Formaten gleichzeitig umgehen können. Man kann der KI Fragen in natürlicher Sprache stellen, Bilder analysieren und Videos generieren lassen.
  • Ab sofort fügt Google für alle Nutzerinnen eine weitere Dimension hinzu, die bislang zahlenden Kunden vorbehalten blieb: Unterhaltungen in Echtzeit. Mit Gemini Live kann man Gespräche mit der KI führen, die stellenweise natürlich wirken.
  • Das Smartphone bekommt nicht nur Ohren, sondern auch Augen. Gewährt man Gemini Zugriff auf die Kamera, kann man Fragen zur Umgebung vor der Linse stellen.
  • Die KI soll damit zum Reiseführer und Dolmetscher, zur Lehrerin und Stylistin werden. Sie könnte auch viele Menschen arbeitslos machen, wenn alles so gut funktioniert, wie Google sich das vorstellt.

3. Google träumt von einem universellen KI-Assistenten

  • Sprachmodelle wie Gemini 2.5 und GPT-4o haben spezifische Stärken und Schwächen. Wenn man möchte, dass die KI bestimmte Aufgaben besonders effizient und verlässlich erledigt, muss man die Grundlagenmodelle darauf spezialisieren oder neue Modelle entwickeln.
  • Forschende sind sich deshalb uneins, ob die Weiterentwicklung aktueller Sprachmodelle in einer Sackgasse mündet oder zu allgemeiner künstlicher Intelligenz (AGI) führt, die menschlichen Expertïnnen bei den meisten Aufgaben überlegen ist.
  • Glaubt man Googles KI-Chef Demis Hassabis, dann ist Gemini auf dem besten Weg, ein Universalmodell zu werden, das den Weg zur AGI ebnet. Das soll Google helfen, sein "ultimatives Ziel" zu erreichen: ein universeller KI-Assistent, der einen im Alltag begleitet, Aufgaben plant und erledigt, komplexe Probleme löst und von sich aus vorschlägt, wo die KI Menschen helfen könnte.
  • Derzeit sind die Modelle recht weit von Googles Vision entfernt. Allerdings hat Hassabis auch recht, wenn er sagt: Vieles von dem, was Google gerade vorgestellt hat, hätte vor zwei Jahren noch an Magie erinnert.

4. KI zieht in alle Google-Produkte ein

  • Im Wettbewerb mit OpenAI hat Google einen großen Vorteil: Über Jahrzehnte ist ein riesiges Ökosystem aus Diensten und Produkten entstanden, von der Websuche und dem mobilen Betriebssystem Android über Gmail und Google Docs bis zum Chrome-Browser.
  • Zum einen hat Google damit massenweise Daten von Milliarden Menschen gesammelt, auf deren Grundlage sich KI-Funktionen individualisieren lassen. Es ist kein Zufall, dass fast alle Google-Managerïnnen mehrfach betonten, wie wichtig Personalisierung sei.
  • Zum anderen kann Google KI direkt in diese Produkte einbauen. Während OpenAI in erster Linie auf ChatGPT als Verbreitungsweg setzt, braucht Google nicht zwingend einen Chatbot, um allen Nutzerïnnen KI vorzusetzen.
  • Gemini schreibt bald personalisierte Antworten in Gmail, ist standardmäßig auf Android-Geräten vorinstalliert, hilft bei Texten und Tabellen und soll in Chrome künftig Webseiten zusammenfassen.
  • Der Großteil dieser Funktionen startet zunächst in den USA und ist zahlenden Abonnenten vorbehalten. Die Vergangenheit zeigt aber, dass es oft nur eine Frage der Zeit ist, bis Google solche Features für alle freigibt, um die Macht der vertikalen Integration effektiv zu nutzen.

5. Agenten, Agenten, Agenten

  • Seit Monaten redet das halbe Silicon Valley von "AI Agents", die angeblich alles verändern. Das Problem: Niemand weiß so genau, was das sein soll (TechCrunch), bislang ist der Begriff eher ein leeres Buzzword (Zeit, tante).
  • Trotzdem scheint Google überzeugt zu sein, dass Agenten die Zukunft sind. KI soll künftig nicht nur auf Anweisungen reagieren, sondern proaktiv und autonom komplexe Aufgaben erledigen.
  • Ein Beispiel: Man könnte einer agentischen Google-Suche sagen, dass man ein Ferienhaus für sechs Personen, zwei Kinder und einen Hund in Südtirol sucht, das höchstens 300 Euro pro Nacht kosten soll, ohne Auto erreichbar ist, ruhig liegt und gut bewertet ist.
  • Der KI-Agent durchsucht dann Buchungsplattformen, wendet selbstständig Filter an, checkt auf Google Maps die Verkehrsanbindung aus und interagiert über eine offene Schnittstelle mit weiteren Agenten der Buchungsplattformen. Dann bekommt man eine Liste präsentiert und kann den Agenten mit der Buchung beauftragen.
  • Auch beim Online-Shopping, Programmieren und Recherchieren sollen Agenten helfen. Microsoft, OpenAI und Anthropic entwickeln ähnliche Produkte, die kürzlich vorgestellt wurden (The Verge).
  • Bislang geht es im Netz darum, von Google entdeckt und von Menschen gelesen zu werden. Falls die Vision der KI-Konzerne aufgeht, könnte es genauso wichtig sein, von Sprachmodellen gefunden und von Agenten bedient zu werden.

6. KI wird zum Geschäftsmodell

  • Bislang ist generative KI eine gigantische Wette auf die Zukunft. Unternehmen wie Google, OpenAI und Anthropic benötigen Dutzende Milliarden Dollar, um immer leistungsfähigere Modelle zu trainieren (SMWB).
  • Die Ausgaben übersteigen die Einnahmen noch um ein Vielfaches. Jede Antwort, die Gemini oder ChatGPT geben, kostet Rechenleistung und Energie. Aktuelle Modelle sind zwar deutlich effizienter geworden, trotzdem müssen die Konzerne eines Tages auch Geld damit verdienen, damit sich die Investitionen lohnen.
  • Dafür gibt es drei Möglichkeiten. Sie können Werbung schalten lassen, die KI an Entwicklerinnen und andere Unternehmen verkaufen oder Nutzer direkt bezahlen lassen.
  • Google experimentiert bereits mit Anzeigen in den KI-Suchergebnissen, möchte das Online-Shopping mit KI vereinfachen (und dabei mitverdienen) und schnürt Pakete aus Cloud-Speicherplatz, Google-Diensten und KI-Funktionen für Start-ups und Konzerne.
  • Künftig sollen Abonnements zur dritten Säule werden. Gemini Pro ersetzt das bisherige Gemini Advanced und bietet für 22 Euro pro Monat Zugriff auf die meisten Funktionen und Modelle.
  • Wer einen "VIP-Pass für KI" möchte, wie Google es nennt, soll 275 Euro pro Monat zahlen. Damit erhält man frühzeitigen Zugang zu allen Produkten, kann neue Modelle fast unbegrenzt nutzen und bekommt obendrauf 30 TB Speicherplatz sowie Werbefreiheit auf YouTube. Auch hier gilt: vorerst US-only.
  • Das sind 3300 Euro pro Jahr und damit rund 1000 Euro mehr als die teuersten Angebote von OpenAI und Anthropic, die allerdings ohne Speicherplatz und YouTube Premium daherkommen. Die Zielgruppe dürfte in allen Fällen aus absoluten Powerusern und Entwicklerïnnen bestehen.
  • Bei OpenAI stehen die Zeichen ebenfalls auf Kommerzialisierung. Die Umwandlung in ein gewinnorientiertes Unternehmen scheiterte zwar an Klagen und internem Widerstand (Zeit), unter der neuen Rechtsform als Public Benefit Corporation kann OpenAI aber unbegrenzt Profit machen und Überschüsse an Investoren ausschütten.
  • Kürzlich holte Sam Altman die frühere Facebook-Managerin und Instacart-Chefin Fidji Simo zu OpenAI. Sie wird Chefin für alle Produkte und soll ein lukratives Geschäftsmodell etablieren.
  • Bei Facebook baute Simo unter anderem das mobile Werbegeschäft auf. Das könnte ein möglicher Weg für OpenAI sein, die Gratis-Version von ChatGPT zu monetarisieren.

7. Google arbeitet wieder an Smart Glasses

  • 13 Jahre nach der gefloppten Google Glass versucht es Google erneut mit smarten Brillen. Dabei dürfte auch der Erfolg von Metas Ray-Bans eine Rolle gespielt haben.
  • Er habe mit Google Glass jede Menge Fehler gemacht, sagte Google-Gründer Sergey Brin auf der I/O (TechCrunch). Daraus habe Google gelernt und werde es jetzt besser machen.
  • Ähnlich wie Meta mit Ray-Ban und EssilorLuxottica setzt Google auf eine Reihe an Partnern, die Technologie und Erfahrung mitbringen, etwa der Brillenhersteller Warby Parker, Xreal und Samsung.
  • Bei den VR- und XR-Brillen von Google handelt es sich um Prototypen, die wir bislang nicht selbst ausprobieren konnten. Deshalb verweisen wir auf drei Hands-ons, die einen ersten Eindruck vermitteln: The Verge, Engadget, Android Central.
  • Das tl;dr: Die wenigen Minuten auf der I/O reichen bislang nur für eine oberflächliche Einschätzung. Offenbar ähneln sich die Herangehensweisen von Google und Meta. Beide setzen darauf, dass Brillen die natürlichste und direkteste Möglichkeit darstellen, um allen Menschen KI wortwörtlich vor die Nase zu setzen.

Politics

  • EU-Kommission: TikTok verstößt gegen europäische Regeln für Werbung im Netz: Alle Tech-Konzerne, die unter den Digital Services Act fallen, müssen detaillierte Datenbanken mit Angaben zu Werbeanzeigen einrichten. Dieser Vorgabe sei ByteDance laut EU-Kommission bei TikTok bislang nicht ausreichend nachgekommen. Es droht daher eine hohe Geldstrafe.
  • Warum bei Anzeigen mehr Transparenz wichtig ist, zeigt die inzwischen annullierte Präsidentenwahl in Rumänien: Der Sieger im ersten Wahlgang hatte TikTok massiv für seine Kampagne genutzt, ohne dass für Nutzerïnnen ersichtlich wurde, für welche Beiträge Gelder geflossen sind. (Deutsche Welle)
  • NGO mahnt zu weiteren Schritten: Die „Civil Liberties Union for Europe“ fordert mehr Personal, um verdeckte und koordinierte Kampagnen aufzuspüren. Zudem fordert die NGO Tech-Plattformen auf, ihre Werbearchive besser nutzbar zu machen und ihren Kennzeichnungspflichten bei bezahlten Inhalten nachzukommen. (Liberties)
  • Meta hingegen löscht Anzeigen wieder: Der Mutterkonzern von Facebook, Instagram und WhatsApp hat angekündigt, politische Anzeigen, die älter als sieben Jahre sind, aus der Datenbank zu löschen. Dabei dürfte es sich zwar nur um Anzeigen handeln, die sich an US-Amerikanerïnnen, bzw. US-Wahlen richteten. Schade ist es aber allemal. Schließlich diente die Datenbank zahlreichen Wissenschaftlerïnnen, NGOs und Journos als wichtiges Recherchetool. (Axios)
  • Trump erlässt umstrittenes „Take It Down“-Gesetz: Das US-Gesetz verbietet die Verbreitung von nicht einvernehmlich geteilten intimen Bildern (NCII) und Deepfake-Betrug. Tech-Plattformen müssen nach Eingang eines Hinweises innerhalb von 48 Stunden die entsprechenden Bilder und Videos entfernen. Was zunächst einmal nach einer sinnvollen Idee klingt, birgt auch Risiken. So fürchten Kritiker zum einen, dass Plattformen zu schnell und zu viel löschen könnten. Zum anderen treibt sie die Sorge um, dass Donald Trump selbst der größte Nutznießer des Gesetzes sein könnte und ihm unliebsame Kritik schneller löschen lassen könnte. (The Verge)
  • Elon Musks KI-Chatbot “Grok” dreht durch: Eigentlich soll „Grok der rebellische Gegenspieler der sachlich-nüchternen Sprachmodelle ChatGPT und Gemini sein“ (Zeit). Was das Sprachmodell jedoch letzte Woche von sich gab, war nicht rebellisch, sondern schlicht rechtsextrem. So säte Musks Chatbot u.a. Zweifel an der Zahl der im Holocaust ermordeten Jüdinnen und Juden. Auch verbreitete „Grok“ die Verschwörung, dass Weiße in Südafrika massenhaft Opfer extremer rassistischer Übergriffe wären. Schuld sei dem Unternehmen zufolge eine unbefugte Änderung durch einen “abtrünnigen Mitarbeiter”. Welcher Mitarbeiter das wohl war?

Next (KI, AR, VR, Metaverse)

  • Meta widersprechen: Nutzerïnnen haben noch bis zum 26.5. Zeit, um Meta die Nutzung der eigenen Inhalte für das Training der KI zu untersagen. Kollege Dachwitz erklärt bei Netzpolitik, warum das eine gute Idee und was zu tun ist.
  • Apropos „KI-Training widersprechen“: Auch an anderer Stelle ist es durchaus sinnvoll, genauer zu prüfen, ob die eigenen Inhalte womöglich für das Training von Sprachmodellen herangezogen werden. Bei Proton gibt es einen guten Text zum Thema.

Internet Culture

  • YouTube präsentiert erstmals US-Podcast-Charts: Darunter sind ziemlich viele Shows, die es bei Apple und Spotify nicht in die Top-Platzierungen schaffen — vor allem aber auch wirklich viel krudes Zeug: angefangen bei dem unvermeidlichen Joe Rogan auf Platz 1 über Tim Pool auf Platz 13, bis zu Tucker Carlson (18) und Megyn Kelly auf Platz 19. (YouTube)
  • Wenn eine KI Job-Kandidaten interviewt, geht erwartungsgemäß hier und da etwas schief. Dass aber so viele Leute davon mittlerweile bereits betroffen sind, hatten wir nicht erwartet. (Slate)
  • Offline-Sehnsucht: Eine britische Studie zeigt, dass immer mehr junge Menschen der Auffassung sind, dass die Zeit, die sie online verbringen, schlecht für ihre psychische Gesundheit sei. Etwas weniger als die Hälfte der Befragten sehnt sich gar nach einer Welt ganz ohne Internet. C’mon! Das ist jetzt auch ein bisschen übertrieben, oder? (Guardian)

Features

Youtube

  • YouTube bietet Werbetreibenden ein neues Anzeigenformat: „shoppable ads“ für Smart-TVs (TechCrunch). So lustig: Alle reden von VR, AR und KI, für YouTube wird einfach der Fernseher immer mehr zum wichtigsten Gerät überhaupt.

Threads

  • Threads arbeitet an einer Option, mit der sich Neugierige unabhängig von einem bestehenden Instagram-Account registrieren können. (Social Media Today)

Bluesky

  • Bluesky testet einen Hinweis, der anzeigt, wenn Userïnnen bei YouTube oder Twitch live gehen. (The Verge)

Spotify

  • Spotify führt jetzt doch nicht bei allen Shows Play Counts ein. Vielmehr soll lediglich bei spezifischen Meilensteinen der Zähler zu sehen sein: etwa bei 100.000 oder 14 Million Plays. (Spotify)