Bildrechte: picture-alliance/dpa

Boommarkt künstliche Intelligenz

Artikel mit Bild-InhaltenBildbeitrag

Künstliche Intelligenz: Ein boomender Markt

Sie ermöglichen autonome Autos und erkennen Handschriften und Gesichter: KI-Chips halten in großer Zahl in Alltagsgegenständen Einzug. Entsprechend umkämpft ist der Markt. Von Achim Killer

Derzeit gibt es einen eindeutigen Marktführer bei Chips für KI-Anwendungen. Und so sieht man dort die Sache: "Einer der Gründe für unseren Erfolg: Viele Programmierer mögen auch Computer-Spiele. Und jeder Grafik-Prozessor kann auch als neuronales Netz programmiert werden", sagt Mark Hamilton vom Grafik-Prozessor-Entwickler Nvidia. Es hat sich halt irgendwie so ergeben. Von Hause aus ist Nvidia eigentlich ein Ausrüster für Computer-Spieler. Aber Grafikprozessoren, wie die sie benötigen, bestehen aus vielen unabhängigen, mit einander vernetzten Recheneinheiten. Und die lassen sich eben auch zu künstlichen neuronalen Netzen verschalten. Als vor ein paar Jahren KI-Anwendungen aufgekommen sind, war denn auch Nvidia schon mit passender Hardware im Markt.

Gelernt ist gelernt

Jetzt aber entsteht Konkurrenz. "Wir haben zur Zeit eine wunderbare Situation, in der mehrere Hersteller in diesen Markt der spezialisierten KI-Chips hineingehen." So Damian Borth vom Deutschen Forschungszentrum für künstliche Intelligenz. Die Anforderungen an KI-Chips sind sehr unterschiedlich, sagt er, je nachdem ob ein neuronales Netz gerade lernt oder das Gelernte nutzbringend einsetzt. "Wir haben bei der Anwendung von tiefen neuronalen Netzen und beim Trainieren zwei verschiedene Modi." Und dabei gilt: Gelernt ist gelernt. Die produktive Anwendung eines trainierten neuronalen Netzes ist keine große Sache mehr.

Zum Lernen ins Rechenzentrum

Aber bis es erst einmal soweit ist! Dem Netz etwas beizubringen, das Training oder das Lernen, es verlangt einen immensen Rechenaufwand. "Was man hier nimmt, sind oft Chips wie Graphical Processing Units, GPUs die im Rechenzentrum stehen, de auf großen Datenmengen trainiert werden über Stunden, wenn nicht Tage", erläutert Borth. Und das kostet Strom. Wenn neuronale Netze in Form von massiv parallelen Prozessoren etwas Neues lernen, so geschieht dies fast immer in der Cloud – oder weniger wolkig formuliert – in Rechenzentren mit optimierter Energieversorgung.

Ein bisschen was geht auch auf dem Handy

Anwenden hingegen lässt sich künstliche Intelligenz auch mit dem Smartphone. Beispielsweise dann, wenn selbiges das Gesicht seines Besitzers erkennt und sich entsperrt. Und ein bisschen was dazulernen können die relativ schwachen KI-Chips in Handys auch noch. Nachtrainieren nennt das Damian Borth. "Nachtrainieren bedeutet: Man nimmt das neuronale Netz und gibt diese Bilder, die man selbst mit dem Handy von sich gemacht hat, in das Netzwerk. Und das muss nicht Millionen von Bildern überhaupt trainieren, weil es ja schon ein Verständnis von Gesichtern hat. Sondern mit diesen wenigen Bildern wird es quasi nachtrainiert. Ein paar von den Gewichten im neuronalen Netz werden dann so modifiziert, dass das individuelle Gesicht erkannt wird mit den wenigen Bildern, die man von der Person gemacht hat."

KI-Supercomputer in der Cloud

Apple und die chinesische Huawei haben neuronale Netze in ihre Smartphone-Prozessoren integriert. Intel, Samsung und etliche Start-ups arbeiten an entsprechenden Chips. Und Sundar Pichai hat bei der diesjährigen Entwicklerkonferenz Google’s neue KI-Prozessoren mit einer gewaltigen Rechenleistung für die Cloud freigeschaltet: "Jede Platine bringt es auf 180 Billionen Gleitkommma-Berechnungen pro Sekunde. Wir haben sie Cloud-TPUs genannt, weil wir sie über das Internet nutzbar machen. Sie gehören seit heute zur Google Compute Engine im Netz."