Energieeffiziente FPGA-basierte Verarbeitungsarchitekturen für KI-Anwendungen
Prof. Dr. Benno Stabernack,
Universität Potsdam
Der Strombedarf für Rechenzentren betrug schon im Jahr 2016 mit 12,4TWh 2,4% des gesamten Stromverbrauchs (insgesamt 518TWh laut Umweltbundesamt) der Bundesrepublik Deutschland. Für den Wachstumsmarkt Rechenzentren wird bis zum Jahr 2025 ein Anstieg des Strombedarfs um 32,3% auf 16,4TWh erwartet. Dabei wird ein überproportionaler Anstieg der Serverleistung um 55,6% auf 7TWh bei 2,6 Mio. Servern prognostiziert. Durch das starke Wachstum ist auch im Jahr 2025 mit stagnierenden oder sogar steigenden CO2-Emissionen zu rechnen. KI-Anwendungen sind bereits heute enorm rechenintensiv und benötigen Millionen einzelner Berechnungen. Auch insgesamt steigt die Bedeutung von KI-Anwendungen rasant an. Für den europäischen Markt wird von 2020 bis 2022 ein Wachstum um 7 Mrd. €. auf insgesamt 10 Mrd. € in diesem Bereich prognostiziert. Die steigende Bedeutung von KI-Anwendungen sowie deren steigende Komplexität bzw. benötigte Rechenleistung, werden damit zu einem erhöhten Stromverbrauch, erhöhten CO2-Emissionen und Kostensteigerungen fürhren, setz man aktuelle Verarbeitungsarchitekturen voraus.
Um die applikationsspezifische Energieeffizienz entsprechender Rechnersysteme zu erhöhen, werden typischerweise spezielle Rechenbeschleuniger eingesetzt. Während sich im Bereich der Grafikverarbeitung GPUs etabliert haben, findet man im speziellen für Anwendungen der Signalverarbeitung, wie Edge Computing in Mobilfunkanwendungen, in großem Maße FPGA-basierte Systeme. Neben großen Anbietern von Public Cloud Systemen wie Amazon, Google und Microsoft, setzen zunehmend auch nationale Anbieter daher in großem Maße Rechenbeschleuniger, im speziellen für KI-Anwendungen, ein, um den zukünftig drastisch steigenden Bedarf an Rechenleistung für KI-Anwendungen decken zu können. Der Bedarf nach privaten Anbietern entsprechender Dienstleistungen in Deutschland steigt zunehmend, da aus rechtlichen und sicherheitsrelevanten Erwägungen die Nutzung globaler Anbieter ausgeschlossen ist, oder zunehmend problematischer wird.
Im Rahmen des Vortrages wird eine neuartige Architektur und Kopplung FPGA-basierter KI-Rechenbeschleuniger vorgestellt. Die Schlüsselanwendung stellt die Bereitstellung von Rechenbeschleunigern dar, die per Netzwerkinterface in einem Cloud-Rechenzentrum angebunden sind. Auf der Basis dieser Kerntechnologie kann damit auf einen großen Teil der normalerweise vorhandenen Serverrechner verzichtet werden. Dies führt zu einer drastischen Reduzierung der anwendungsspezifischen Verlustleistung und in Folge dessen zu einer erheblichen Steigerung der Energieeffizienz sowie zu einer wesentlichen Reduzierung des KI-spezifischen CO2 Ausstoßes.
Weiterhin stellt das vorgestellte NAA-Konzept (Network Attached Accelerator) einen tragfähigen Ansatz für die einfache Integration entsprechender KI-Rechenbeschleuniger in eingebettete Systeme und Automotive Systeme dar.