Ein Event von

Powered by

To use this page, you need JavaScript enabled

21. April 2021
virtuelle Konferenz

Forum Künstliche Intelligenz

Programm

Mittwoch, 21. April 2021

10:00 - 10:45
Keynote-Session Keynote-Session
10:00 - 10:10
Begrüßung
10:10 - 10:40
Zuverlässige KI - Absicherung künstlicher neuronaler Netze Prof. Dr. Marco Huber, Fraunhofer IPA  
In den letzten Jahren hat sich die Künstliche Intelligenz (KI) in vielen Anwendungsgebieten - bspw. Produktion oder Gesundheits- und Finanzwesen - zu einer Schlüsseltechnologie entwickelt. Deep-Learning-Ansätze, die auf riesigen Datensätzen trainiert werden, sind mittlerweile in der Lage hochkomplexe Zusammenhänge zu erkennen und dadurch sehr genaue Entscheidungen zu treffen. Solche Algorithmen werden auch als „Black Boxes“ bezeichnet, da es für Menschen unmöglich ist deren komplexe Entscheidungsfindungsprozesse nachzuvollziehen. Für einige Anwendungsfälle ist jedoch nicht nur die Genauigkeit, sondern auch die Sicherheit und das Vertrauen in die Algorithmen von enormer Bedeutung. In solchen Anwendungen ist es wichtig, dass kritische algorithmische Entscheidungen abgesichert werden. In diesem Vortrag werden Aspekte einer zuverlässigen und vertrauenswürdigen KI betrachtet. Insbesondere wird der Aspekt der Absicherung maschinell gelernter Modelle mit Fokus auf tiefe künstliche neuronale Netze beleuchtet. Dabei werden drei Fragestellungen detailliert: (1) Erklärbarkeit: Es wird eine praktikable Methode zur Extraktion von Informationen zu den internen Entscheidungsprozessen tiefer neuronaler Netze vorgestellt. Solche Informationen sollten den komplexen Entscheidungsfindungsprozess auf vereinfachte, verständliche und zuverlässige Weise darstellen. Im vorliegenden Fall werden aus bereits trainierten Modellen einfache Regeln oder Entscheidungsbäume extrahiert, die es einem Anwender ermöglichen sollen die Entscheidungsfindung des zugrunde liegenden Netzes nachzuvollziehen. (2) Verifikation: neuronale Netze stellen einen nichtlinearen Funktionsapproximator dar, welcher Eingabedaten in Beziehung mit Ausgabedaten setzt. Diese Beziehung ist nicht beliebig, sondern genügt bestimmten Anforderungen, je nach Anwendungskontext. Die Verifikation von neuronalen Netzen beschäftigt sich damit, wie diese Anforderungen formal und automatisiert zu überprüfen. Für sicherheitskritische Anwendungen ist dies unerlässlich, um unerwartetes oder gar erratisches Verhalten zu vermeiden. (3) Unsicherheitsquantifizierung: gängige neuronalen Netze stellen Punktschätzer dar, d.h. sie liefern auf eine Eingabe eine Ausgabe ohne Aussagen darüber, wie verlässlich oder unsicher das Netz hinsichtlich der Ausgabe ist. Diese Eigenschaft ist insbesondere dann kritisch, wenn das Netz mit Daten gespeist wird, die in den ursprünglichen Trainingsdaten wenig repräsentiert waren. Hier sollte das Netz klar zu erkennen geben, dass es sich unsicher ist. Bayes'sche neuronale Netze bieten einen Ausweg, sind aber für praktische Anwendungen zu aufwendig zu trainieren. Es wird ein neuartiger Ansatz für Bayes'sche neuronale Netze vorgestellt, welcher ohne Gradientenabstieg auskommt und auch in der Lage ist, zur Laufzeit trainiert zu werden. Der Vortrag gewährt somit Einblick in konkrete Ansätze zur Absicherung gelernter Modelle. Der Nutzen wird anhand praktischer Anwendungsfälle demonstriert.
10:40 - 10:45
5 Minuten Pause

Parallele Sessions

10:45 - 12:25
Session 1 Embedded KI 1
10:45 - 11:15
AUTOflow – Ein Framework zur automatischen Umsetzung von KI-Modellen auf Embedded-Systemen Marcus Rüb, Hahn-Schickard-Gesellschaft für angewandte Forschung  
Tiefe neuronale Netze (DNNs, engl.: Deep Neural Networks) haben sich in zahlreichen Anwendungen wie Bildklassifizierung, Spracherkennung, Videoanalyse usw. als sehr erfolgreich erwiesen. DNNs sind jedoch wesentlich rechen- und speicherintensiver als bisherige flache neuronale Netze. Daher ist es eine Herausforderung, DNNs sowohl in großen Rechenzentren als auch in eingebetteten Echtzeit-Systemen einzusetzen. Als Zielplattform sind verschiedene Embedded-Geräte denkbar, wie z. B. Mikrocontroller und FPGAs (engl.: Field Programmable Gate Arrays). Leider machen es herkömmliche Frameworks den Embedded-Entwicklern schwer, mit dem schnellen Tempo der Innovationen bei DNNs Schritt zu halten. Dabei sind Embedded-Geräte als Zielplattform für DNNs, durch ihre Vorteile, kaum wegzudenken. DNNs auf eingebetteten Systemen bringen Datenschutz, geringen Energieverbrauch und Sicherheit mit sich. Um dieses Problem zu überwinden, wird AUTOflow (Automatic workflow for Edge AI) entwickelt, ein Framework, das Entwickler dabei unterstützt, neuronale Netze auf Embedded-Geräte zu implementieren. Dabei werden sowohl Mikrocontroller als auch FPGAs verschiedener Hersteller als Zielplattformen unterstützt. Dies wird den Entwicklungsprozess vom KI-Modell zum KI-Produkt beschleunigen, indem der Implementierungsaufwand reduziert wird. Der AUTOflow-Workflow wird in fünf Schritten ausgeführt: 1. Die automatische Auswahl der Zielplattform. 2. Training des DNNs mit Optimierungen für die Zielplattform. 3. Komprimierung des trainierten DNNs. 4. Generische Codegenerierung des DNNs für die Zielplattform. 5. Verifikation und Validierung der komprimierten DNNs. Im Gegensatz zu bestehenden Frameworks dieser Art ist AUTOflow nicht auf bestimmte Zielplattformfamilien begrenzt, sondern unterstützt verschiedene Arten von Zielplattformen verschiedener Hersteller. Auch eine automatische Optimierung, bei den ein Trade-off Parameter zwischen Ausführgeschwindigkeit und Genauigkeit geschaffen wird, ist bei anderen Frameworks nicht vorhanden. AUTOflow wird in diesem Vortrag als Open-Source-Tool vorgestellt und anhand von Praxisbeispielen wird seine Vielseitigkeit demonstriert. Die gezeigten Praxisbeispiele sind Projekte aus der Industrie und Forschung, darunter sind beispielsweise Anwendungen aus der Medizintechnik und der Produktionsumgebung. Neben den Beispielen wird auch der Aufbau des Frameworks vorgestellt. Es werden die Grundbausteine des Tools erläutert und detailliert aufgezeigt, um es nach dem Vortrag für eigene Projekte verwenden zu können.
11:15 - 11:20
5 Minuten Pause
11:20 - 11:50
Energieeffiziente FPGA-basierte Verarbeitungsarchitekturen für KI-Anwendungen Prof. Dr. Benno Stabernack, Universität Potsdam  
Der Strombedarf für Rechenzentren betrug schon im Jahr 2016 mit 12,4TWh 2,4% des gesamten Stromverbrauchs (insgesamt 518TWh laut Umweltbundesamt) der Bundesrepublik Deutschland. Für den Wachstumsmarkt Rechenzentren wird bis zum Jahr 2025 ein Anstieg des Strombedarfs um 32,3% auf 16,4TWh erwartet. Dabei wird ein überproportionaler Anstieg der Serverleistung um 55,6% auf 7TWh bei 2,6 Mio. Servern prognostiziert. Durch das starke Wachstum ist auch im Jahr 2025 mit stagnierenden oder sogar steigenden CO2-Emissionen zu rechnen. KI-Anwendungen sind bereits heute enorm rechenintensiv und benötigen Millionen einzelner Berechnungen. Auch insgesamt steigt die Bedeutung von KI-Anwendungen rasant an. Für den europäischen Markt wird von 2020 bis 2022 ein Wachstum um 7 Mrd. €. auf insgesamt 10 Mrd. € in diesem Bereich prognostiziert. Die steigende Bedeutung von KI-Anwendungen sowie deren steigende Komplexität bzw. benötigte Rechenleistung, werden damit zu einem erhöhten Stromverbrauch, erhöhten CO2-Emissionen und Kostensteigerungen fürhren, setz man aktuelle Verarbeitungsarchitekturen voraus. Um die applikationsspezifische Energieeffizienz entsprechender Rechnersysteme zu erhöhen, werden typischerweise spezielle Rechenbeschleuniger eingesetzt. Während sich im Bereich der Grafikverarbeitung GPUs etabliert haben, findet man im speziellen für Anwendungen der Signalverarbeitung, wie Edge Computing in Mobilfunkanwendungen, in großem Maße FPGA-basierte Systeme. Neben großen Anbietern von Public Cloud Systemen wie Amazon, Google und Microsoft, setzen zunehmend auch nationale Anbieter daher in großem Maße Rechenbeschleuniger, im speziellen für KI-Anwendungen, ein, um den zukünftig drastisch steigenden Bedarf an Rechenleistung für KI-Anwendungen decken zu können. Der Bedarf nach privaten Anbietern entsprechender Dienstleistungen in Deutschland steigt zunehmend, da aus rechtlichen und sicherheitsrelevanten Erwägungen die Nutzung globaler Anbieter ausgeschlossen ist, oder zunehmend problematischer wird. Im Rahmen des Vortrages wird eine neuartige Architektur und Kopplung FPGA-basierter KI-Rechenbeschleuniger vorgestellt. Die Schlüsselanwendung stellt die Bereitstellung von Rechenbeschleunigern dar, die per Netzwerkinterface in einem Cloud-Rechenzentrum angebunden sind. Auf der Basis dieser Kerntechnologie kann damit auf einen großen Teil der normalerweise vorhandenen Serverrechner verzichtet werden. Dies führt zu einer drastischen Reduzierung der anwendungsspezifischen Verlustleistung und in Folge dessen zu einer erheblichen Steigerung der Energieeffizienz sowie zu einer wesentlichen Reduzierung des KI-spezifischen CO2 Ausstoßes. Weiterhin stellt das vorgestellte NAA-Konzept (Network Attached Accelerator) einen tragfähigen Ansatz für die einfache Integration entsprechender KI-Rechenbeschleuniger in eingebettete Systeme und Automotive Systeme dar.
11:50 - 11:55
5 Minuten Pause
11:55 - 12:25
AI goes Ultra-Low-Power Dr. Marco Breiling, Fraunhofer IIS  
Die Aufgabe: einen integrierten KI-Beschleuniger für Wearables bauen (zur Analyse von EKG-Signalen), der minimalen Energieverbrauch besitzt. Unsere Lösung: Die hier vorgestellte Design-Space Exploration umfasst die Entwicklung eines geeigneten Deep Neural Networks (DNNs) für diesen Anwendungsfall samt dessen Optimierung für starke Quantisierung und minimale Größe (Neuronen und Synapsen) und einer passenden Vorverarbeitung des Eingangssignals. Weiterhin werden verschiedene Hardware-Architekturen (beispielsweise systolische Arrays) bezüglich ihrer Eignung für den DNN-Beschleuniger analysiert. Die Chipfläche, d.h. Chipkosten, wird dabei genauso berücksichtigt wie die dynamische und statische Leistungsaufnahme, Durchsatz und Latenz. Im Design werden nicht-volatile Speicher (NV-RAMs) eingesetzt, damit nach einem Power-Up sofort die Gewichte des DNNs verfügbar sind. Hierdurch können die Kosten eines externen Speicherchips und der hohe Energieverbrauch für das Lesen der Gewichte aus diesem eingespart werden. Unsere mixed-signal Implementierung in 130 nm-ASIC-Technologie verknüpft digitale Schaltungen mit analogen Teilschaltungen (zum Schreiben und Lesen der NV-RAMs). Dafür verwendet die Implementierung mehrere Clock Domains und mehrere Power Domains. Schließlich stellen wir auch die Philosophie für eine Evaluierung dieses Designs sowie die Ergebnisse dieser Evaluierung bezüglich der genannten Größen wie Chipfläche und Leistungsaufnahme vor.
10:45 - 12:25
Session 2 Embedded KI 2
10:45 - 11:15
Methoden und Werkzeuge für effiziente Inferenz von trainierten neuronalen Netzen auf eingebetteten Systemen Dr. Christian Schinabeck, Fraunhofer IIS  
Die zunehmende Verbreitung neuronaler Netze erfordert immer häufiger, diese auf lokalen eingebetteten Endgeräten auszuführen. Letztere sind typischerweise als heterogene Hardware-Plattformen realisiert und umfassen z.B. Multi-Core CPUs mit GPUs wie auch spezielle KI Beschleuniger. Die Systeme sind dabei in ihren Ressourcen wie Speicher oder Stromaufnahme beschränkt. Dies führt dazu, dass gängige Netzwerkarchitekturen wie z.B. ResNet, VGG oder U-Net nur sehr langsam ausgeführt werden können bzw. die vorhandenen Möglichkeiten nicht optimal genutzt werden. Um vortrainierte neuronale Netze zur Inferenzzeit dennoch effizient ausführen zu können, müssen diese auf den spezifischen Anwendungsfall optimiert und an die Zielhardware angepasst werden, wobei die Genauigkeit des Models erhalten bleiben soll. Zur anwendungsspezifischen Optimierung werden beispielsweise Methoden wie Quantisierung oder Pruning genutzt, wodurch die Anzahl der notwendigen Rechenoperationen deutlich reduziert werden kann. Anschließend kann das vereinfachte Netzwerk mit speziellen Programmen, sog. Deep Learning Compilern, wie TVM oder TensorRT, an die Gegebenheiten der Zielplattform angepasst werden, sodass die Hardware optimal genutzt wird. Dadurch können substantielle Performanceverbesserungen erreicht werden. In der Praxis wird dies aber durch eine hohe Komplexität und fehlende Interoperabilität erschwert. Ziel des Vortrags ist daher, einen Überblick über existierende Werkzeuge (z.B. Compiler und Distiller), deren Anwendung, bestehende Herausforderungen und zugrundeliegende Verfahren zu geben. Dazu wird auf die neusten Erkenntnisse des vom BMBF geförderten Projekts „KISS“ zurückgegriffen. Dieses hat zum Ziel, ein KI Labor mit der Expertise im Systemdesign für maschinelles Lernen in Anwendungen der Signalverarbeitung aufzubauen. Dazu wird an Tools und Workflows zur Optimierung von neuronalen Netzen geforscht, welche sich für Anwendungen in Wirtschaft und Forschung eignen. Die dabei erzielten Ergebnisse werden anhand von praktischen Beispielen präsentiert und die erreichbaren Verbesserungen demonstriert.
11:15 - 11:20
5 Minuten Pause
11:20 - 11:50
Blick in die Black-Box: Erklärbare KI Nina Schaaf, Fraunhofer IPA  
In den letzten Jahren hat sich KI zu einer Schlüsseltechnologie in vielen Anwendungsbereichen entwickelt, z.B. in der Fertigung, im Gesundheitswesen oder im Finanzwesen. Deep-Learning-Ansätze, die auf großen Datensätzen trainiert werden, sind heute in der Lage, hochkomplexe Zusammenhänge zu entdecken und damit sehr genaue Entscheidungen zu treffen. Solche Algorithmen werden auch als "Black-Boxes" bezeichnet, da es für den Menschen unmöglich ist, ihre komplexen Entscheidungsprozesse zu verstehen. Für manche Anwendungen sind jedoch nicht nur genaue Vorhersagen, sondern auch das Verständnis der eingesetzten Algorithmen von enormer Bedeutung. Beispiele sind sicherheitskritische Bereiche wie das autonome Fahren oder der medizinische Bereich. In solchen Anwendungsbereichen ist es wichtig, kritische Entscheidungen durch Erklärungen zu begleiten. Der Vortrag soll einen Überblick über das Forschungsfeld "Erklärbare KI" liefern. Dies umfasst so-wohl Motivationen und Zielgruppen als auch wichtige Definitionen zur Kategorisierung diverser Erklärmethoden. Zusätzlich werden einige derzeit populäre Erklärtechniken vorgestellt.
11:50 - 11:55
5 Minuten Pause
11:55 - 12:25
Angreifbarkeit von Spracherkennungsmodellen Karla Markert, Fraunhofer AISEC  
Die Sprache-zu-Text-Erkennung wird immer wichtiger, virtuelle Assistenten wie Cortana oder Siri und Geräte wie Amazon Echo oder Google Home werden immer häufiger eingesetzt. Die Sprachsteuerung bietet für die Anwenderinnen und Anwender große Vorteile, insbesondere eine erhöhte Safety und mehr Komfort. Gleichzeitig birgt die Sprachsteuerung vernetzter Systeme auch einige Sicherheitsrisiken und öffnet Einfallstore für Cyberkriminelle. Aus diesem Grund stößt die Analyse gezielter Angriffe auf Spracherkennungssysteme in der Sicherheitsforschung auf großes Interesse. Hierbei wird eine Audiodatei so manipuliert, dass sie das Spracherkennungssystem täuscht, während dem menschlichen Zuhörer keine Veränderung auffällt. So können Befehle durchgeführt werden, ohne dass dem Nutzer bzw. der Nutzerin ein Angriff auffällt. Derartige Manipulationen können verwendet werden, um die Privatheit, Vertraulichkeit und Integrität von vernetzten Systemen anzugreifen. Die Forschung zu gezielten Attacken auf Spracherkennungssysteme hat sich in den letzten Jahren rasant entwickelt. Gleichzeitig ist die Erfolgsquote der realistischen Angriffe noch nicht besonders zuverlässig, zudem benötigen die Attacken viel Wissen über die Spracherkennungssysteme, das in der Regel bei proprietären Systemen nicht zur Verfügung steht. Dieser Vortrag soll einen Überblick zu dem aktuellen Stand der Forschung zu sogenannten Audio Adversarial Examples geben. Hierbei werden unterschiedliche Angriffsszenarien berücksichtigt und aktuelle Herausforderungen bei der Erstellung und Abwehr von Angriffen diskutiert.

Parallele Sessions

12:25 - 12:50
Tools & Tipps Tools & Tipps
12:25 - 12:50
Vendor-Independent and Automated Workflow for Deep Learning Inference on FPGAs Dimitri Hamidi, MathWorks  
Deep learning inference on FPGAs is gaining relevance across industries and applications due to FPGAs’ inherent advantages of programmability, high throughput, low latency, and per-watt performance. In practice however, the long development cycles and the required hardware expertise might become a prohibiting factor. This talk illustrates an integrated workflow for designing, prototyping, and deployment of deep neural networks for inference on FPGA-based edge devices. The solution is centered around a customizable, portable and integrable deep learning processor IP (RTL Code, AXI Interfaces). Furthermore, deployment for prototyping and the solution space exploration does not require specific hardware skills. The workflow is therefore able to connect algorithm, system, and hardware teams, and accelerate the development process, both in the concept phase and in the implementation phase. The proposed deep learning on FPGAs solution is part of a comprehensive framework for AI-driven system development supporting early system modelling and simulation and where AI models can be automatically deployed along with other required algorithms onto CPUs, GPUs, or FPGAs in the final system.

Parallele Sessions

12:50 - 16:30
Session 3 KI in der Fabrik
12:50 - 13:20
Deep Learning: Vom Hype zum realen Kundennutzen Dr. Christoph Eichhorn, SICK  
Mittels Deep Learning erbringen Sensoren bei der automatischen Erkennung, Prüfung und Klassifizierung von Objekten oder Merkmalen Intelligenzleistungen, die bislang dem Menschen vorbehalten waren. Damit zählt Deep Learning als Teilbereich des maschinellen Lernens (Machine Learning) zur wohl bedeutendsten Zukunftstechnologie innerhalb des Themenfeldes der Künstlichen Intelligenz und ist zugleich auch langfristig Treiber von Industrie 4.0. Nachdem SICK Deep Learning für die Verbesserung eigener Applikationen in der Logistikautomation erschlossen hat und bereits mit ersten Produkten am Markt erfolgreich ist, geht das Unternehmen einen Schritt weiter und macht die entwickelten Werkzeuge jetzt auch direkt für Endanwender und SICK AppSpace Kunden verfügbar. Um Deep Learning zu realisieren, werden neuronale Netzwerke eingesetzt. Im Gegensatz zum Prozess der klassischen Entwicklung von Algorithmen, werden neuronale Netze nicht mit festen Regeln programmiert, sondern anhand aussagekräftiger Beispiele trainiert. Während des Trainings eines künstlichen neuronalen Netzes definiert dieses die Entscheidungskriterien selbständig anhand der Trainingsdaten. Dieser Vorgang ist vergleichbar mit menschlichen Lernprozessen. In diesem Vortrag wird anhand von Beispielen gezeigt, dass Deep Learning nicht nur geeignet ist, selbst komplexere Aufgaben zu bewältigen, sondern dass durch intuitive Arbeitsabläufe auch die Lösungsentwicklung enorm vereinfacht und beschleunigt wird. Die neuen Deep Learning Werkzeuge sind ohne detaillierte Vorkenntnisse nutzbar und werden somit für einen breiteren Anwenderkreis zugänglich. Somit kann die optimale Definition einer Applikationslösung direkt durch die Person erfolgen, die die Problemstellung am besten versteht und am besten weiß, worauf es wirklich ankommt.
13:20 - 13:25
5 Minuten Pause
13:25 - 13:55
Dezentrales kollaboratives Lernen mit akustischer Sensorik unter Einhaltung des Datenschutzes Dr. Steffen Thoma, FZI Forschungszentrum Informatik  
In der Produktion werden neben numerischen Sensorwerten vermehrt auch visuelle und akustische Aufzeichnungen verwendet, anhand derer sich drohende Maschinenausfälle bereits frühzeitig erkennen lassen. Bei akustischen und visuellen Sensoren besteht im Gegensatz zur reinen numerischen Sensorauswertung allerdings die zusätzliche Herausforderung, dass sie neben den gewünschten Tönen und Bildern auch sensible Daten der Umgebung aufnehmen können wie bspw. Gespräche von Mitarbeitern. Aus diesem Grund können die Daten nicht in der Cloud, sondern müssen datenschutzkonform lokal am Aufnahmeort verarbeitet werden. Obwohl der Maschinentyp an mehreren Produktionsstandorten steht und potentiell sehr große Mengen an Trainingsdaten für das Lernen eines KI-Modells zur Verfügung stehen könnten, muss das Modell für die Störungsprognose ausschließlich auf den lokalen Daten gelernt werden. Mit Federated Learning steht eine Technologie zur Verfügung, mit der Daten von mehreren Aufnahmeorten gleichermaßen für das Lernen genutzt werden können, ohne den Datenschutz Einzelner zu verletzen. Beim Federated Learning wird kollaborativ über einen Verbund von mehreren lokalen Modellen gelernt. Der Vortrag gibt eine Einführung zu dieser Technik und zeigt mit verschiedenen Anwendungsszenarien wie lokal verarbeitete Daten und Informationen über die dezentral trainierten Modelle für das Lernen eines guten globalen KI-Modells verwendet werden. Ein KI-Modell wird auf verschiedenen dezentralen Edge-Geräten oder Servern ausgeführt, die jeweils nur Zugriff auf einen Satz sensibler lokaler Daten haben. Das Training der lokalen KI-Modelle erfolgt dann lediglich mit der Übertragung der lokal gelernten Modellparameter an das globale Modell, sodass die zugrundeliegenden Daten selbst stets im Hoheitsbereich der einzelnen Anwender bleiben. Das globale KI-Modell steht dann wiederum den lokalen Instanzen zur Verfügung, die einen Vorteil aus der größeren Menge von sensiblen Trainingsdaten ziehen können, ohne diese selbst zu kennen. Federated Learning steht damit im Kontrast zu den traditionellen Techniken des maschinellen Lernens, bei denen alle lokalen Datensätze zentral auf einem Server gesammelt werden und das Modelltraining anschließend auch zentral stattfindet. Insbesondere im Umgang mit personenbezogenen und unternehmensinternen Daten birgt es dadurch großes Anwendungspotential. Bspw. in den Bereichen Condition Monitoring und Predictive Maintenance können verschiedene Betreiber der gleichen Maschine die Vorteile eines auf größerer Datenbasis kollaborativ gelernten Modell nutzen, ohne Aufschluss über ihre eigene Produktion zu geben. Dieser neue Ansatz ermöglicht es außerdem Cluster von lokalen Modellen zu identifizieren, die aufgrund ihrer Randbedingungen ähnlich sind und eine nicht unabhängige Datenbasis besitzen. Damit kann die Annahme unabhängig und identisch verteilter Daten gezielt fallen gelassen werden, was die Anwendungen in der Praxis besser abbildet und die Lösungsqualität erhöht.
13:55 - 14:00
5 Minuten Pause
14:00 - 14:30
3D-Umgebungserfassung für Roboter Dr. Birgit Hasenberger, BECOM Systems  
In diesem Vortrag stellen wir ein System zur Objektklassifizierung und Personenerkennung im Umfeld einer autonomen Maschine vor, das auf Tiefendaten von 3D-Time-of-Flight-Sensoren und künstlicher Intelligenz basiert. Insbesondere autonome Maschinen sind mit einer großen Anzahl neuer Anforderungen konfrontiert, wie zum Beispiel komplexe Navigations- und Handlingaufgaben, unstrukturierte Umgebungen und die Mensch-Maschine-Kooperation. Das vorgestellte System besteht aus angepassten 3D-Sensormodulen, einer NVIDIA-basierten Recheneinheit und Deep-Learning-Software. Vier Time-of-Flight-Sensoren ermöglichen eine 360°-Rundumsicht im Nahbereich des Roboters und senden ihre Daten an eine zentrale Recheneinheit, den "MultiCam Hub". Auf dieser Recheneinheit können unterschiedliche Deep-Learning-Anwendungen ausgeführt werden, die beispielsweise zur Klassifizierung von Objekten dienen. Im Rahmen einer Machbarkeitsstudie zur Personen- und Objekterkennung zeigen wir den kompletten Workflow von der Erfassung der Trainingsdaten bis zum Deployment für derartige Lösungen mit der Deep-Learning-Plattform "Deep Learning DS" eines Softwarepartners (Fa. Data Spree). Wir präsentieren die Leistungsfähigkeit des Systems in verschiedenen Szenarien sowie Optimierungs- und Erweiterungsmöglichkeiten.
14:30 - 14:50
Pause & Networking
14:50 - 15:20
KI Klassifikationsschema für Safety Holger Laible, Siemens  
Der Vortrag behandelt das Spannungsfeld des Einsatzes von Techniken der künstlichen Intelligenz (KI) im Zusammenhang oder im Rahmen von Sicherheitsanwendungen. Neben der Risikobetrachtung von Applikations-Beispielen, wird ein KI Klassifikationsschema vorgestellt, wie es in der Normungsarbeit (ISO SC42) bereits diskutiert wird. Es werden Denkansätze aufgestellt, welche Aspekte für die weitere Erarbeitung von Empfehlungen und normativen Anforderungen zu betrachten sind und aktuelle Schwerpunkte aus der KI Normung vorgestellt.
15:20 - 15:25
5 Minuten Pause
15:25 - 15:55
Schluss mit Ausschuss und Nacharbeit – mit KI Fehler automatisiert vermeiden Frank Thurner, Contech Software & Engineering  
Ausschuss und Nacharbeit in Produktion und Montage verursachen Kosten und vermindern die Wettbewerbsfähigkeit. Produkte und Herstellprozesse werden immer komplexer und die Zahl von möglichen Einflussgrößen und Abhängigkeiten wächst. Als Folge nehmen Ausschuss, Nacharbeit und Gewährleistungsrisiken stetig zu. Hier setzt das Forschungsprojekt IntelPromo – Intelligente Produktion und Montage an, welches das Institut für Werkzeugmaschinen und Betriebswissenschaften (iwb) der Technischen Universität München (TUM) in Zusammenarbeit mit Continental und der mts Consulting und Engineering GmbH bis Dezember 2020 durchführt. Durch betriebsparallele automatisierte Prozessüberwachung und die KI-Software Analyser® werden potenzielle Fehlermöglichkeiten während des Montageprozesses in Echtzeit erkannt und durch steuerndes Eingreifen verhindert. Dies sichert die Qualität u.a. für sicherheitsrelevante Bauteile für das autonome Fahren. Ergebnisse des Projektes IntelProMo: 1) Der Überwachungs- und Steuerungsprozess des Montagesystems der ADAS-Surround-Kamera ist vollautomatisiert und in einer Demonstrator-Montagelinie im Einsatz. 2) Mittels Künstlicher Intelligenz wird die Qualität auf Basis von Vorhersagemodellen gesteuert und nachhaltig produziert. 3) Ausschuss, Nacharbeit und Gewährleistungsrisiko gehen gegen Null. Vorgehensweise: Zunächst wurde ein Digitaler Zwilling der Produktionsanlage aufgebaut und eine Softwareumgebung inklusive Wissensdatenbank zur Prozessüberwachung und -steuerung erstellt. Im realen Betrieb überwacht die KI-Software den Prozess über einen Digitalen Echtzeitzwilling, erkennt Fehler und steuert (halb-)automatisch auf Qualität. Künstliche Intelligenz kommt an zwei entscheidenden Stellen im Projekt zum Einsatz: 1. Bei der Erstellung des Digitalen Zwillings und der Vorhersagemodelle identifiziert die KI-Software Analyser® die relevanten Einflussgrößen und ermittelt die Abhängigkeiten zu den Qualitätsmerkmalen. Grundlage dafür ist ein patentierter Algorithmus, der auf Basis auch von kleinen Stichproben Wirkmechanismen identifiziert. 2. Bei der Prozessüberwachung -steuerung im Betrieb dient die KI-Software als Wissensdatenbank und Frühwarnsystem, das die Anwender einerseits durch Fehleridentifikation und konkrete Handlungsempfehlungen 24/7 unterstützt und zusätzlich durch Predictive Quality zur Fehlervermeidung beiträgt. Im Vortrag werden die Voraussetzungen und Möglichkeiten für den wirkungsvollen Einsatz von Künstlicher Intelligenz in Produktions- und Montageprozessen aufgezeigt, sowohl an erfolgreichen Praxisprojekten im Automotive, der Optik- und der Raumfahrtindustrie als auch am Forschungsprojekt IntelPromo. Außerdem steht ein Video zur Verfügung, dass die KI-gesteuerte Demonstrator-Anlage in Aktion präsentiert.
15:55 - 16:00
5 Minuten Pause
16:00 - 16:30
Intelligente Edge Lösungen für mehr Produktivität und Effizienz in der vorausschauenden Wartung von Maschinen und Systemen. Rudolf Krumenacker, ICC Intelligent Platforms  
Internet der Dinge (Internet of Things) verändert nachhaltig die industrielle Wertschöpfung. Durch die zunehmende Digitalisierung wird bald jedes Gerät, jede Maschine, jede Anlage, jedes Gebäude über Edge Devices vernetz bzw. mit der Cloud verbunden sein und Unmengen von Daten stehen für eine intelligente Echtzeitauswertung zur Verfügung. Im Vortrag wird aufgezeigt, wie mit intelligenten Edge Devices und Cloud Verbindung diese Datenmenge für eine vorausschauende Instandhaltung und Wartung von Maschinen, Anlagen und Systemen genutzt werden können bzw. heute schon realisiert sind. Des Weiteren wird im Vortrag auch auf die Herausforderungen, Bedeutung und Tragweite von Cyber Security in Verbindung mit Edge und Cloud Computing eingegangen. Der Vortrag wird abgerundet mit einem Ausblick in zukünftig mögliche Szenarien.
12:50 - 16:30
Session 4 KI im Automobil
12:50 - 13:20
Towards Industrialization of AI – Test and Validation Dr. Stefan Voget, Continental  
One cornerstone of automated driving and highly automated driving are reliable perception algorithms. A promising candidate for highly diverse, real-world perception applications is based on artificial intelligence (AI). Currently the main used methods are deep neural networks (DNN). These, however, break with many traditional software development paradigms. The safety principles defined in the functional safety norm ISO26262 are not applicable for DNNs any more. It requires rethinking of existing argumentation structures for verification, starting at testing and validation. In this talk we will highlight the main differences and the main commons between verification and validation strategies for traditional Software development compared to systems that include AI based components. We motivate that the testing of AI requires a different argumentation structure than software testing on component level. However, as usually the system testing for autonomous driving is independent from the chosen realization technology, the integration and system verification is not affected. The clear separation in hierarchical testing is required as there are now three realization techniques, i.e. Hardware, Software and AI. Based on these findings, two complementary solution approaches towards industrialization of AI in automotive systems are presented: (a) The generalization of a simple use-case: We will give some insights on how the German publicly funded project KI-Absicherung (which is part of the VDA lead initiative "automated driving") develops a new argumentation structure for autonomous driving perception from the use-case of pedestrian detection. (b) Drawing an analogy to neighboring fields: We will have a closer look to the approaches followed in the field of autonomous mobile robotics. Altogether, a path towards industrialization of AI is drawn from problem formulation to solution approaches.
13:20 - 13:25
5 Minuten Pause
13:25 - 13:55
Safety of ML in the context of future regulation: AI and ISO 26262/21448 Prof. Dr. Dirk Nowotka, Universität Kiel  
UNECE plans to advance the existing standards for Functional Safety and the Safety of Intendent Functionality. However, these standards do not provided a detailed framework for machine learning. The CAU and TÜV NORD provide an interpretation and a solution for the appliance of these standards in the context of automated driving. • Presentation of the proposed requirements from UNECE and ISO 26262 • Efficient approach to compliance derived from the Pegasus project • Example of ML Requirements in Software Development and interpretation according to ISO 26262-6 The presented work is based on the BMWi AirPortMover project (airport vehicle automation).
13:55 - 14:00
5 Minuten Pause
14:00 - 14:30
Next generation of automotive microcontroller to support AI algorithms for latest application trends Konrad Walluszik, Infineon Technologies  
To support the trend in the automotive industry to develop safer, smarter and eco-friendly cars a change from linear algorithm approaches towards AI based algorithms is considered. AI methods open opportunities to control and to monitor the non-linear characteristics of the application functions. Neural Networks enable techniques for non-linear system modelling, system state prediction and classification. Virtual sensors are mathematical models of plants/environment conditions. Neural network topologies like MLP or RNN allow modelling of non-linear characteristics with a higher accuracy than classical methods like look-up-tables. Furthermore, virtual sensors offer the possibility to replace complex physical sensors for cost reduction. One example is the replacement of a resolver-based rotor position measurement by a neural network topology like LSTM or GRU. In AD systems predictive algorithms are extensively used. An example is to predict the position of the surrounding objects based on previous observations. This information is used for localization and trajectory generation. Another example is to predict the car dynamics so that drive control commands can be send to follow the selected trajectory. Kalman filtering is often used for object prediction tasks. But traditional Kalman filtering algorithms performance rely on the accuracy of the motion and measurement model. Current research exists for the replacement of these fixed motion models with simple RNN types of models. Similar trend is seen to predict the car dynamics using AI. The main advantage is, more complex situations can be modelled and therefore more accurate decisions can be taken. Due to the natural behavior of AI algorithms to compute a certain probability, such AI algorithms cannot be used standalone in safety critical applications. To benefit from the advantages seen by neural networks, a combination with traditional methods is required. From here we can derive the need for safe compute resources combined with new compute clusters to accelerate AI algorithms in future automotive microcontrollers. Vector DSP processors with SIMD arithmetic support can bring performance increase for parallel algorithms. As AI algorithms are based on matrix/ vector operations, a significant speedup compared to scalar CPU architectures is seen. While providing the increased performance, SIMD architectures are not limited to specific AI architectures but offers a flexible programming model. As neural networks are not yet very common in existing automotive applications, flexibility can be used to target various AI and non-AI algorithms. Providing parallel processing capabilities in automotive microcontrollers allows to include AI and non-AI algorithms in new applications while achieving real-time execution. In this presentation we will present automotive applications examples which can benefit from using AI and show how such algorithms can be mapped to automotive microcontrollers.
14:30 - 14:50
Pause & Networking
14:50 - 15:20
KI-basierte Fahrerassistenzsysteme für Ultraleichtfahrzeuge Dennis Jess, Ostfalia HS für angewandte Wissenschaften  
Im Automobilbereich werden in zunehmendem Maß Fahrerassistenzsysteme entwickelt, um die Sicherheit im Straßenverkehr zu erhöhen. Für Ultraleichtfahrzeuge existieren aktuell nur wenige Fahrerassistenzsysteme, obwohl einige dieser Fahrzeuge schwerwiegende fahrdynamische Risiken aufweisen. Ein Fahrzeug aus dieser Kategorie stellt das Velomobil dar. Velomobile sind Liegeräder, die in der Regel dreirädrige ausgeführt sind und eine aerodynamische Außenhaut aufweisen. Diese können Geschwindigkeiten bis zu 50 km/h auf ebener Strecke erreichen und weisen im Vergleich zu Fahrrädern einen besseren Witterungsschutz auf und sind im Gegensatz zu Personenkraftwagen umweltfreundlich. Somit eignen sich Velomobile ideal für den Einsatz auf Kurz- und Mittelstrecken bei verschiedenen Witterungen und decken damit den Bereich ab, den ein Großteil der Pendler in Deutschland auf dem Weg zur Arbeit zurücklegt. Jedoch konnten sich Velomobile bisher nicht in der breiten Masse etablieren, da sie fahrdynamische Risiken aufweisen. Ein Risiko besteht darin, dass bei hohen Kurvengeschwindigkeiten kritische Kippmomente entstehen können, die zum folgenschweren Überschlag des Fahrzeugs führen. Im Rahmen des EFRE-Forschungsprojekts Velo 4.0 an der Ostfalia Hochschule für angewandte Wissenschaften in Wolfenbüttel wird untersucht, wie sich Assistenzsysteme unter Nutzung innovativer Technologien für Velomobile realisieren lassen. Durch die Nutzung innovativer Technologien lassen sich beispielsweise Verkehrsteilnehmer intelligent vernetzen, wodurch die Sicherheit von diesen im Straßenverkehr erhöht werden kann. Dazu bieten sich Lösungsansätze aus dem IoT- und KI-Bereich an, welche einhergehend mit der zunehmenden Digitalisierung in der Mobilität vermehrt zum Einsatz kommen. Dieser Beitrag stellt ein Architekturkonzept zu einem IoT-, Cloud- und KI-basierten Fahrerassistenzsystem für Velomobile zur Vermeidung kritischer Fahrsituationen vor. In den Velomobilen verbaute IoT-Messsysteme detektieren z.B. kritische Kippmomente, ordnen diese einem Strecken- und Fahrprofil zu und übertragen diese Informationen mittels IoT-Funktechnologien an ein Cloud-basiertes Assistenzsystem. Den Kern des Cloud-basierten Assistenzsystems stellt ein lernfähiges KI-System dar. Es besteht aus einem Machine-Learning-System und einem regelbasierten Expertensystem. Das Machine-Learning-System generiert auf Basis von Decision Tree Learning und der Daten aus den Informations-Meldungen von Velomobilnutzern Regeln, die automatisiert in die Wissensbasis des Expertensystems eingepflegt werden. Das Expertensystem führt auf Grundlage der Regeln und Live-Messdaten von Velomobilnutzern Gefährdungsbeurteilungen durch. Als Ergebnis sendet das Cloud-basierte Assistenzsystem Gefahrenmeldungen an Velomobilnutzer mit dem gleichen Streckenprofil, in Abhängigkeit von deren Geschwindigkeit. Die Velomobilnutzer erhalten die Warnmeldungen auf ihr mobiles Endgerät, dass sie visuell und auditiv vor einer Gefahrenstelle warnt.
15:20 - 15:25
5 Minuten Pause
15:25 - 15:55
How to teach a machine to drive in difficult situations and be able to rely on it Dr. Axel Plinge, Fraunhofer IIS  
Autonomous driving is an active field of research in academia and industry. On the way to the ambitious goal of fully autonomous driving, the problem of driving assistance in difficult situations is addressed by many in the development of Advanced Driver Assistance Systems (ADASs). We embarked on the adventure of using reinforcement learning to design such a system. The central idea of Reinforcement Learning is to use a reward function that enables the artificial intelligence (AI) to learn a good rule of behavior on its own by interaction with the environment. The result is a policy for the autonomous agent. Along the way, we discovered that it is prudent not to use this advanced method to learn behavior in a so-called end-to-end scenario, i.e. from image/video data to actuators such as steering and breaks. It is better placed in the middle of the driving process by using abstract representations inferred from the sensors and learning to decide on more high-level actions or objectives, e.g., whether to perform a lane-change or not. This reduces the complexity of the task and at the same time enables us to understand and verify the behavior of the learned agent. With the proper level of abstraction, the learned models become small enough so that it is possible to formally verify that the learned policies are safe. This allows us to bridge the important gap towards interpretable and safe AI. Another challenge arises from the fact that many situations like collisions of cars can only be explored in simulation and cannot be learned experimentally with actual vehicles. Our work shows that a tailored randomization strategy vastly increases the robustness of the learned agent towards variations in the scenario it is employed in. In this talk, we will describe the driving scenarios and show simulated results for changing lanes, obstacle avoidance, and handling of side collisions. We will show how to enable interpretability and the verification of safety. Additionally, we will show strategies of making the transfer from simulation to reality.
15:55 - 16:00
5 Minuten Pause
16:00 - 16:30
Entwurf einer Kupplungssteuerung mit Reinforcement Learning zur Regelung des Anfahrvorgangs in Automatikgetrieben Alexander Lampe, IAV  
In der Entwicklung von Steuergerätefunktionen im Bereich der Antriebsstrangsteuerung- und Regelung sind heuristische sowie modelbasierte Verfahren weit verbreitet. Der Entwicklung liegt dabei meist ein physikalisches Model des realen Systems zugrunde, welches das kontinuierliche Testen der Funktionen in Simulation während des Entwicklungsprozesses ermöglicht. Zwar können durch die Verwendung physikalischer Modelle Zeit und Entwicklungskosten gespart werden, jedoch resultiert aus der Verwendung von Simulationsmodellen häufig auch ein hoher Aufwand bei der Inbetriebnahme und Feinabstimmung am realen System, da physikalische Effekte in der Simulation zum Teil nur unzureichend abgebildet oder gänzlich vernachlässigt werden. Dies macht weitere Anpassungen der Steuergerätefunktionen nötig, um zusätzliche Freiheitsgerade für die Applikation zu schaffen und die physikalischen Effekte des realen Systems in der Steuerung zu berücksichtigen. Datenbasierte Steuerungsverfahren, wie Reinforcement Learning, haben diesbezüglich großes Potenzial den Entwicklungsaufwand zu verringern, da sie aus dem realen Systemverhalten lernen und sich an die physikalischen Effekte selbständig anpassen. Trotz dieses Vorteils finden solche Verfahren bisher wenig Anwendung in realen Systemen, da diese durch direkte Interaktion mit dem realen System lernen müssen und ein sicheres Lernen nicht garantiert werden kann. Oftmals ist es auch nicht möglich, einen noch untrainierten Regler im realen System zu erproben. Zudem ist in sicherheitskritischen Anwendungen nach jedem Lernvorgang eine aufwändige Validierung des neuen Reglers nötig. Verfahren zum Anlernen eines datenbasierten Reglers mit statischen Datensätzen, d.h. ohne Interaktion mit dem realen System, rücken aufgrund der genannten Probleme zunehmend in den Fokus der Forschung. Dieser Beitrag zeigt den prototypischen Einsatz eines auf Reinforcement Learning basierenden Reglers zur Steuerung des Anfahrvorgangs in einem Automatikgetriebe mit Reibkupplung. Neben dem Entwurf des Reglers mittels einer mehr-kriteriellen Kostenfunktion wird insbesondere auf die Herausforderungen eingegangen, die mit der Anwendung in einem realen Fahrzeug einhergehen, wie beispielsweise die breitbandige Validierung des Anfahrreglers, die aufgrund der Vielzahl möglicher realer Fahrszenarien nötig wird. Zudem wird gezeigt, inwieweit ein in Simulation angelernter Regler auch im realen Fahrzeug anwendbar ist und ob mithilfe aktueller Algorithmen ein Anfahrregler auch ohne jegliche Interaktion mit dem realen System trainiert und anschließend im realen System erfolgreich eingesetzt werden kann.

SOCIAL MEDIA

WEKA-FACHMEDIEN-EVENTS

In enger Zusammenarbeit mit anerkannten Experten und den verantwortlichen Redaktionen
unserer bekannten Medienmarken veranstalten wir jährlich rund 50 nationale und internationale B2B-Kongresse, Seminare und Workshops für ein fest definiertes Fachpublikum.

Dazu gehören Themen wie Embedded Systems, Automotive Ethernet, Batterietechnik,
Datacenter, Safety&Security, electronic Displays, Blockchain, IoT, Bordnetz, KI, Smart Building, Digital Workplace, TSN, Wireless-Technologien, Verkabelung und vieles mehr.

Übersicht aller aktuellen Veranstaltungen