Zum Inhalt springen
13 Min. Lesezeit KI

Generative KI: Ein Streit, viele neue Produkte und Gedanken zur Zukunft

Während sich zwei kluge KI-Beobachter im Kreis drehen, überbieten sich Google und OpenAI mit Ankündigungen. Was bedeutet das für 2025?

Generative KI: Ein Streit, viele neue Produkte und Gedanken zur Zukunft
Quelle: Unsplash / Martin Sanchez

Was ist

Im Internet diskutieren zwei mittelalte weiße Männer, ob KI überschätzt wird. Dabei werden sie zunehmend persönlich und scheinen nicht mehr um die Sache, sondern nur noch ums Rechthaben zu streiten.

Klingt unfassbar egal, ist aber tatsächlich interessant. Denn Gary Marcus und Casey Newton verstehen durchaus etwas von KI. Wenn man die Sticheleien und Angriffe ignoriert, bleibt eine spannende Frage übrig: Machen es sich KI-Skeptiker wie Marcus mit ihrer Kritik zu leicht?

Passend dazu ballern Google und OpenAI kurz vor Ende des Jahres noch einmal richtig raus: neue Modelle, Produkte und Funktionen en masse. Wir fassen die wichtigsten Ankündigungen zusammen und binden sie mit Gedanken zur Gegenwart und Zukunft von KI ab.

Wie der Streit zwischen Newton und Marcus eskalierte

What I found in the criticism was a near-total unwillingness to acknowledge that generative AI can do anything good or useful, or to acknowledge that it has improved significantly and rapidly with successive generations. I found a genuine lack of curiosity in whether the scaling laws might get us all the way to superintelligence, and in the risks that clearly await us if it does. I don’t know if this is intellectual dishonesty or simply wishful thinking, but in any case I do think that the blind spots it has produced are real. And it will be fascinating to see whether the fake-and-sucks crowd updates its views (or doesn’t) as LLMs continue to make steady incremental or perhaps even exponential progress in the years ahead.

Worum sich der Streit dreht

Ultimately, both the “fake and sucks” and “real and dangerous” crowds agree that AI could go really, really badly. To stop that from happening though, the “fake and sucks” crowd needs to accept that AI is already more capable and more embedded in our systems than they currently admit. And while it’s fine to wish that the scaling laws do break, and give us all more time to adapt to what AI will bring, all of us would do well to spend some time planning for a world where they don’t.
(1) Of course AI is real. I use speech recognition, GPS navigation, web search, and recommendation engines almost every day. A whole lot of students (perhaps the majority of OpenAI’s users) use LLMs daily to write term papers; coders use it a lot too, as I often note.
(2) LLM’s in particular are wildly overrated. I personally almost never feel the need to use them, though I understand some people have uses for them. They do not deliver remotely what was initially promised of them. (…)
(3) LLMs are already dangerous, despite their limits. Covert racism? Deep fakes? Propaganda? Discrimination in employment, insurance and housing? Many downsides are already here, and potential misuse in the military seems imminent.

Was Google und OpenAI gezeigt haben

Wie wir auf KI blicken

Im März 2023 haben wir sechs Gedanken und Thesen zu KI formuliert, zu denen wir nach wie vor stehen:

  1. KI hat (noch) nichts mit Intelligenz zu tun
  2. KI benötigt kein Bewusstsein für eine Revolution
  3. Menschen werden KI vermenschlichen
  4. Der Umgang mit KI wird eine wichtige Kulturtechnik
  5. Die Gefahren sind real, aber die Panik ist absurd
  6. Es braucht Transparenz und Regulierung

Im vergangenen Mai beschrieben wir sechs Probleme, die im Hype um KI manchmal untergehen. Auch diese Liste ist weiter aktuell:

  1. KI verschlingt gewaltige Ressourcen
  2. Trainingsdaten gehen zuneige
  3. KI könnte sich an sich selbst verschlucken
  4. Sprachmodelle könnten illegal entstanden sein
  5. KI-Hardware ist bislang Schrott
  6. Sprachmodelle skalieren nicht unbegrenzt

Und im Oktober fragten wir mit Blick auf OpenAI, ob das Unternehmen ein tragfähiges Geschäftsmodell besitzt. Bislang hat sich an unseren Bedenken wenig geändert: