c't 14/2023
S. 40
Aktuell
Prozessoren

Bit-Rauschen

RISC-V-Beschleuniger, Umweltferkel Chipfertigung

Bei der europäischen Chipentwicklung gibt es kleine Erfolge, etwa bei einem KI-Beschleuniger mit RISC-V-Technik. Die Halbleiterbranche arbeitet daran, ihren hohen CO2-Ausstoß und Ressourcenbedarf zu reduzieren.

Von Christof Windeck

Dumm gelaufen: Auch auf die 61. Top500-Liste hat es der 2-Exaflops-Supercomputer Aurora mit Intel-Technik noch nicht geschafft. Für die 62. Ausgabe der Liste, die am 13. oder 14. November erscheinen soll, muss es nun aber klappen. AMD und Nvidia dürften sich in ihre jeweiligen Fäustchen lachen, bis November sind vielleicht schon Superrechner mit den Kombichips AMD Instinct MI300 und Nvidias Grace Hopper im Rennen. Beide KI-Rechenbeschleuniger sind aus Chiplets zusammengesetzt und enthalten eigene Allzweck-Rechenkerne, bei AMD vom x86-Typ Zen 4 und bei Nvidia mit ARM-Mikroarchitektur.

Ein Chiplet des PULP Occamy: Seine 216 RISC-V-Kerne in sechs Gruppen mit je vier Clustern belegen ähnlich viel Siliziumfläche wie die Controller für HBM2E-Speicher (links) und den Die-to-Die-Interconnect (unten)., Bild: PULP Platform
Ein Chiplet des PULP Occamy: Seine 216 RISC-V-Kerne in sechs Gruppen mit je vier Clustern belegen ähnlich viel Siliziumfläche wie die Controller für HBM2E-Speicher (links) und den Die-to-Die-Interconnect (unten).
Bild: PULP Platform

Vom europäischen Rechenchip Rhea mit (unter anderem) ARM- und RISC-V-Technik, der eigentlich 2021 starten sollte, ist leider immer noch nichts zu sehen. Fortschritt meldet jedoch das ebenfalls von der European Processor Initiative (EPI) geförderte Team, das den Rechenbeschleuniger Occamy mit RISC-V-Kernen entwickelt. Der läuft zwar ebenfalls noch nicht „in echt“, ist aber auf gutem Wege dahin. Die Forscher kombinieren im Occamy schlanke 32-Bit-RISC-V-Kerne mit starken 64-Bit-Gleitkomma-Rechenwerken unter anderem für KI. Mehrere Occamy-Chiplets mit je 216 Rechenkernen lassen sich über einen Die-to-Die-Interconnect koppeln. Während der RISC-V-Teil offenliegt, steuert die US-Firma Rambus zu Occamy einen proprietären Speichercontroller für High Bandwidth Memory (HBM2E) bei. Der bindet HBM2E-Stapel von Micron an, die später zusammen mit den RISC-V-Chiplets auf einem gemeinsamen Silizium-Interposer sitzen sollen. Spannend dabei: Der HBM2E-Controller und die Die-to-Die-Schnittstelle belegen zusammen ähnlich viel Siliziumfläche wie die in sechs Gruppen zu je vier Clustern organisierten Rechenkerne. Occamy ist ein gutes Beispiel dafür, dass der Aufwand für den Transport von Daten im Vergleich zu deren eigentlicher Verarbeitung enorm hoch ist.

Grünere Chips

Halbleiterhersteller präsentieren gerne ihre supersauberen Reinräume, doch manche Schritte der Chipfertigung sind ein schmutziges Geschäft. Man arbeitet mit gefährlichen Chemikalien wie Flusssäure sowie mit gasförmigen per- und polyfluorierten Chemikalien (PFAS/PFC), die extrem starke Treibhauswirkung entfalten. Daher opponiert die Chipindustrie gegen EU-Gesetze, die die PFAS-Nutzung reduzieren beziehungsweise sogar verbieten sollen. Doch die Branche arbeitet auch an Konzepten für nachhaltigere Chipfertigung, beispielsweise im Rahmen des Projekts Sustainable Semiconductor Technologies and Systems (SSTS) des belgischen Halbleiterforschungszentrums IMEC. Im SSTS kooperieren die großen Chip-Auftragsfertiger TSMC, Samsung und Globalfoundries mit wichtigen Kunden wie Apple, Meta und Microsoft sowie mit Zulieferern wie Applied Materials und ASML. Laut Boston Consulting Group sind die Chiphersteller selbst für 58 Prozent der Emissionen und des Ressourcenverbrauchs verantwortlich, 42 Prozent verstecken sich in der komplexen Lieferkette: Wafer, Metalle, Chemikalien, Maschinen. Die Branche steht daher vor großen Aufgaben, wenn sie in Zukunft nachhaltig produzierte Chips verkaufen will.

Energetisch effizienter müssen die Chips der Zukunft auch werden, betonte AMD-CTO Mark Papermaster auf der IMEC-Veranstaltung ITF World 2023 in Antwerpen sowie im Gespräch mit c’t. Das sei insbesondere bei KI-Beschleunigern geboten, weil deren Energiebedarf und die dafür nötigen Kosten sonst aus dem Ruder laufen und den KI-Boom abwürgen können. Bisher machen KI-Anwendungen laut Papermaster aber nur einen kleinen Teil der Aufgaben von (Cloud-)Rechenzentren aus. Genaue Zahlen nannte er allerdings nicht, weil es auch seiner Meinung nach keine ausreichend genauen und belastbaren Daten zum Energieverbrauch von Rechenzentren gibt.

Da ist es kein Wunder, dass die deutsche Bundesregierung als eine wesentliche Maßnahme zur Reduktion der Umweltbelastungen durch Rechenzentren vorschreiben will, dass diese ihren jeweiligen Energiebedarf zunächst einmal genau messen sollen. Und diese Daten sollen sie auch veröffentlichen, damit ihre Kunden endlich die Effizienz von Cloud-Diensten konkret vergleichen und zu den besten Anbietern wechseln können. Bisher mauert die Branche: Zwar rühmen sich viele Cloud-Dienstleister für den Einsatz regenerativer Energie, aber kaum einer nennt konkrete Verbrauchswerte für seine einzelnen Angebote. (ciw@ct.de)

Kommentieren