Sie sind die wertvollste Ressource der KI-Revolution: Spezielle KI-Chips, sogenannte GPUs, stehen im Zentrum jedes großen KI-Modells.
Bildrechte: picture alliance / ASSOCIATED PRESS | Uncredited

Sie sind die wertvollste Ressource der KI-Revolution: Spezielle KI-Chips, sogenannte GPUs, stehen im Zentrum jedes großen KI-Modells.

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Wie der Chip-Mangel den KI-Standort Deutschland bedroht

Sie sind die wichtigste Ressource des KI-Zeitalters: spezielle KI-Chips, sogenannte GPUs. BR-Recherchen zeigen: Firmen und Universitäten in Deutschland sind verzweifelt auf der Suche nach ihnen, und werden von hohen Kosten und Bürokratie ausgebremst.

Was braucht es, um im Wettlauf um Künstliche Intelligenz nicht zurückzufallen? Für viele Unternehmen und Universitäten gibt es darauf nur eine Antwort: Es braucht KI-Chips, sogenannte GPUs. Nur damit lassen sich große, leistungsstarke künstliche Intelligenzen trainieren. An sie heranzukommen, ist aktuell die schwierigste Aufgabe der Tech-Welt. Denn KI-Chips sind nicht nur selten, sondern auch enorm teuer.

TUM will Investitionen von 60 Millionen Euro für Hardware

Die Technische Universität München (TUM) will es trotzdem versuchen – und plant einen Antrag beim Bayerischen Staatsministerium für Wissenschaft. "Wir würden uns definitiv in einer Größenordnung von 60 Millionen Euro Hardware wünschen", erklärt Alexander Braun, der Chief Information Officer der TUM, im Gespräch mit dem KI-Podcast der ARD. Für dieses Geld möchte die TUM sich moderne KI-Chips anschaffen, um eigene KI-Modelle zu entwickeln und zu trainieren. Zusätzlich zu den 60 Millionen für die Chips wären schätzungsweise 30 Millionen Euro in Stromkosten für die ersten fünf Jahre Betrieb notwendig.

"Wenn wir hier nicht investieren, dann geraten wir immer weiter ins Hintertreffen", sagt Alexander Braun. "Wir können aber natürlich das Ministerium nur freundlich bitten und natürlich auch mit Nachdruck darauf hinweisen, was es für Konsequenzen hat, wenn wir das nicht bekommen."

Wie schnell entwickelt sich KI weiter? Und welche Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem neuen Podcast von BR24 und SWR.

Chips – Die wertvollste Ressource des KI-Zeitalters

Tatsächlich wirken die Wünsche der Technischen Universität München noch fast bescheiden, wenn man sie in einen internationalen Vergleich setzt. Das amerikanische KI-Start-up "Inflection AI" hat etwa im Juni 1,3 Milliarden Dollar in Investitionen eingesammelt – und angekündigt, fast die kompletten Mittel für KI-Chips auszugeben.

Für diese gigantischen Summen gibt es vor allem zwei Gründe: erstens den Megatrend künstliche Intelligenz. Angetrieben von Unternehmen wie OpenAI beschäftigen sich gerade weltweit Unternehmen und Organisationen mit der KI-Revolution und versuchen, ihre eigenen KI-Modelle und KI-Anwendungen zu entwickeln. Also steigt die Nachfrage nach KI-Chips. Der zweite Grund für die hohen Preise ist das geringe Angebot. Die Produktion dieser Chips ist kompliziert und kostspielig und wird von einigen wenigen Unternehmen bestimmt.

Was hat Nvidia mit KI zu tun?

Größte Profiteure des Hypes um KI-Chips sind deshalb vor allem die Hersteller dieser Chips, allen voran Nvidia. Das amerikanische Chip-Unternehmen ist vor allem für seine GPUs bekannt, also Grafikkarten, die etwa in Spielekonsolen und Computern stecken. Seit einiger Zeit wird die Technologie hinter diesen Grafikkarten jedoch für weit mehr genutzt als für Videospiele – etwa für das Mining von Kryptowährungen, aber vor allem auch für das Trainieren und Betreiben von KI-Modellen.

GPU-Systeme wie Nvidias H100 sind deshalb in etwa das geworden, was Kohle für die Industrielle Revolution war – die Ressource, die alles am Laufen hält. Und da Nvidia bei der Herstellung seiner GPUs kaum Konkurrenz hat, steigen die Preise in luftige Höhen: Ein einzelnes H100-System kostet rund 3.000 Dollar in der Herstellung, wird von Nvidia aber für rund 30.000 Dollar verkauft. Das Ergebnis sind satte Profite von Nvidia und schlechte Aussichten für jedes Start-up, das selbst eine große künstliche Intelligenz trainieren möchte.

Schlechte Aussichten für Unternehmen und Start-ups

Daniel Abbou vom KI Bundesverband vertritt die Belange von Mittelständlern und Start-ups im KI-Bereich. Er sieht die deutsche Industrie vor gigantischen Herausforderungen: "Es gibt zu wenige oder fast keine richtigen dedizierten KI-Rechenzentren in Deutschland", erklärt er. Die meisten Supercomputer in Universitäten und Forschungsinstituten seien für KI-Anwendungen kaum geeignet, meint er. Und selbst wenn: "Europäische und deutsche Start-ups, die darauf zugreifen wollen, haben im Prinzip keine Chance. Das hat nicht nur was mit der mangelnden Verfügbarkeit zu tun, sondern auch damit, dass der bürokratische Prozess, um da Rechenzeit zu bekommen, immensen Vorlauf hat und man da auch über diverse bürokratische Hürden springen muss."

Unternehmen im KI-Bereich bleibe letztlich nichts übrig, als sich selbst auf die Jagd zu begeben – und dabei alle Register zu ziehen. "Firmen wie beispielsweise Nyonic, ein ganz neuer Player auf dem KI-Markt in Deutschland, sind massiv auf der Suche nach GPU-Zeiten", sagt Daniel Abbou. Solche Firmen würden sogar Leute einstellen, deren einzige Aufgabe es sei herauszufinden, wo man gerade GPU-Zeiten buchen kann.

Bürokratie und hohe Kosten

Ein Problem: Die Welt der Künstlichen Intelligenz entwickelt sich rasend schnell weiter – monatlich werden neue Rekorde gebrochen und Systeme vorgestellt. Doch die klassischen Förder- und Investitionsprogramme sind auf dieses Tempo nicht eingestellt.

Auch die Universität Bayreuth setzt verstärkt auf KI. Doch zwischen dem Beschluss, einen neuen KI-Rechner anschaffen zu wollen, und der tatsächlichen Inbetriebnahme stehen sieben verschiedene Schritte, darunter Antrag, Begutachtung, Ausschreibung und Auswertung. Im allerbesten Fall dauert der komplette Prozess anderthalb Jahre, in der Praxis kann das jedoch noch einmal erheblich länger sein.

"Es kann also durchaus vorkommen", teilt der Verantwortliche des IT-Servicezentrums an der Universität Bayreuth mit, "dass eilige Professoren die Uni schon wieder verlassen haben, bevor die ihnen zugedachte Rechenkapazität installiert wurde".

Wird das irgendwann besser?

Daniel Abbou vom KI Bundesverband warnt davor, dass hohe Kosten und bürokratische Hürden die KI-Revolution in Deutschland und Europa frühzeitig zum Erliegen bringen könnten: "Generative KI wird in den nächsten Jahren in die Wirtschaft einziehen und in weiten Teilen der Wirtschaft auch Prozesse verändern. Und jetzt muss man sich fragen: Wollen wir den gleichen Fehler wieder machen, den wir vor 20 Jahren gemacht haben mit Google, Amazon, Microsoft? Dass wir in Europa keine Alternativen dazu angeboten haben?"

"Wollen wir den gleichen Fehler wieder machen, den wir vor 20 Jahren gemacht haben?", Daniel Abbou vom KI Bundesverband

Zumindest in Sachen Chip-Verfügbarkeit könnte sich der Wind in den nächsten Jahren drehen. Sowohl Microsoft als auch OpenAI arbeiten Berichten zufolge an eigenen KI-Chips – und könnten der Vormachtstellung von Nvidia Konkurrenz machen. Auch wird daran geforscht, Chips des Herstellers AMD nachträglich KI-tauglich zu machen. All diese Lösungen stammen zwar wieder aus den USA – doch immerhin würden sie dann auch für deutsche Unternehmen etwas billiger.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!

Das ist die Europäische Perspektive bei BR24.