Der chinesische Chatbot Deepseek schockierte Anleger weltweit: Die Aussicht, KI künftig mit weniger Rechenleistung zu trainieren, ließ Nvidias Börsenwert um 600 Milliarden Dollar einbrechen.

Ein Interview

Wir erklären, was Deepseek auszeichnet – und warum der Bot gerade für Europa gute Nachrichten bringt.

Mehr News zum Thema Wirtschaft

Meldungen über den leistungsfähigen Chatbot Deepseek aus China haben in den vergangenen beiden Tagen zu dramatischen Kursrückgängen bei KI-Unternehmen wie Nvidia, AMD und TSMC geführt. Was macht Deepseek so besonders?

Thilo Stadelmann: Deepseek ist ein sogenanntes "AI Frontier Lab" – ein kommerzielles Forschungslabor. Über das genaue Geschäftsmodell ist aber noch wenig bekannt. Der größte Effekt des aktuellen Releases von Deepseek ist sicherlich geopolitischer und wissenschaftlicher Natur, während der kommerzielle Aspekt vermutlich weniger im Vordergrund steht. Die aktuellen Modelle V3 und R1 funktionieren grundsätzlich ähnlich wie diejenigen anderer Anbieter, aber dem Team ist es gelungen, das Training dieser Modelle deutlich effizienter zu gestalten.

Von 100 auf sechs Millionen: Wie Deepseek die Trainingskosten revolutioniert

Warum haben andere KI-Titel so heftig reagiert?

Einfach erklärt: Je effizienter die Modelle sind, desto weniger Nvidia-Chips brauchen sie. Die Zahlen dazu sind noch nicht klar, aber Schätzungen zufolge kann man bei der Effizienz von einem Faktor von 10 bis 100 ausgehen. Dieser Effizienzgewinn reduziert die Kosten und den Aufwand, ein Modell zu bauen, erheblich. Während bei anderen Anbietern Trainingskosten in der Größenordnung von etwa 100 Millionen US-Dollar genannt wurden, spricht man bei Deepseek von rund 6 Millionen.

Lesen Sie auch

Was bedeutet der Aufstieg von Deepseek für die gesamte KI-Branche? Gibt es Anzeichen dafür, dass wir eine Verschiebung hin zu neuen Playern sehen könnten, die etablierte Giganten wie Nvidia herausfordern?

Der Aufstieg von Deepseek ist zuallererst eine sehr gute Nachricht. Denn wenn die Ergebnisse der Chinesen reproduzierbar sind, bedeutet das, dass das Training von Large Language Models (LLMs) – also KI-Modelle, die auf großen Textmengen trainiert werden, um natürliche Sprache zu verstehen und zu erzeugen – deutlich weniger aufwändig ist als bisher angenommen. Das könnte das Geschäft beleben und den vielen Unternehmen, die auf LLMs basierend Produkte entwickeln, mehr Möglichkeiten und Auswahl bieten.

Europa, USA, China: Wer dominiert das KI-Rennen?

Viele Analysten sprechen bereits von einem "KI-Rennen" zwischen westlichen und asiatischen Unternehmen. Welche Region hat Ihrer Meinung nach die besten Chancen, die KI-Dominanz langfristig zu übernehmen?

Aktuell sehen wir ein Rennen zwischen Open-Source-Software, dazu gehören die Releases von Deepseek oder Meta, und proprietären, also markengebundenen Lösungen von etwa OpenAI, Microsoft oder Anthropic, die von einem Unternehmen entwickelt und kontrolliert werden und in deren Aufbau und Details man von außen keinen Einblick hat. Es scheint, als hätte Open Source nun aufgeholt und die Effizienz um eine oder zwei Größenordnungen gesteigert. Das ist besonders vorteilhaft für Europa. Auf der anderen Seite beobachten wir weiterhin viel Innovation aus den USA im Bereich KI-Software, während chinesische Unternehmen in der Robotik zuletzt einen Vorteil erlangt haben, mit Produkten, die um Größenordnungen günstiger und dadurch massentauglich sind. Die Kombination dieser beiden Entwicklungen – Open-Source-Software und günstige, skalierbare Hardware – wird in den kommenden Jahren von enormer Bedeutung hierzulande sein.

Wie wird sich der Wettbewerb im Bereich KI-Computing und -Datenverarbeitung entwickeln? Wird Nvidia seine Spitzenposition behaupten können oder könnten neue Wettbewerber wie Deepseek die Karten neu mischen?

Nvidia produziert Chips, die nach wie vor stark nachgefragt werden. Der drastische Rückgang des Nvidia-Aktienkurses in den letzten Tagen ist jedoch nicht auf eine Disruption des Geschäftsmodells von Nvidia zurückzuführen, sondern vielmehr auf eine Disruption der Hype-Geschichte, die Nvidia und andere Silicon-Valley-Unternehmen in den letzten Monaten erzählt haben. Sie propagierten, dass sie die Einzigen seien und dass unendlich viel Rechenleistung für KI-Anwendungen erforderlich sei. Nun zeigt ein Unternehmen wie Deepseek, dass das Training von Modellen auch mit weniger Rechenleistung möglich ist, was die Anleger verunsichert. Eines wird dabei aber übersehen.

Nämlich?

Das Training eines Modells ist im Wesentlichen ein einmaliger Aufwand. Der wird jetzt günstiger, aber die Modelle müssen auch ausgeführt werden. Jede Anfrage eines Nutzers verbraucht Rechenleistung, proportional zur Anzahl der erzeugten Tokens, also "Wörter". Modelle wie R1 oder OpenAIs GPT-Modelle werden auch als "Reasoning-Modelle" bezeichnet, da sie ihre erste Antwort nicht direkt liefern, sondern in einem inneren Monolog ihre Antwort mehrfach hinterfragen und verbessern. Das führt zu einer deutlich höheren Token-Generierung und besseren Ergebnissen. Dieser Teil des Prozesses, der als "Inference" bezeichnet wird, wurde von Deepseek kaum verbessert. Auch wenn es also mehr offene, leistungsfähige Modelle wie DeepSeek-R1 oder ChaptGPT-o1 gibt, werden diese weiterhin viel Rechenleistung erfordern.

Was wiederum bedeutet: Das Geschäftsmodell von Chip-Produzenten wie Nvidia bleibt erstmal intakt.

Genau. Nur aus dem Hype darum ist erstmal ein wenig die Luft heraus. Für europäische Unternehmen bedeutet das auch, dass es nun möglicherweise Wege gibt, eigene Modelle schneller und günstiger zu entwickeln als ursprünglich gedacht – jedoch bleibt der Entwicklungsprozess teuer. Man spricht bei Deepseek von etwa 100 Personen und 2.000 GPUs, die benötigt werden, um ein Modell zu trainieren.

Über den Gesprächspartner

  • Prof. Dr. Thilo Stadelmann forscht und lehrt zu künstlicher Intelligenz und maschinellem Lernen an der ZHAW School of Engineering in Winterthur/Schweiz, wo er das Centre for Artificial Intelligence und dessen "Computer Vision, Perception & Cognition" Forschungsgruppe leitet. Thilo Stadelmann ist Co-Founder von AlpineAI & SwissGPT.
JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.