Ein Event von

Powered by

To use this page, you need JavaScript enabled

14. Mai 2020
Virtuelles Event

Forum Künstliche Intelligenz

Programm

Donnerstag, 14. Mai 2020

Parallele Sessions

09:05 - 11:45
Keynote-Session Keynote-Session
09:05 - 09:45
KI + Mensch = Zusammen unschlagbar! Reinhard Karger, DFKI - Deutsches Forschungszentrum für Künstliche Intelligenz  
Künstliche Intelligenz (KI) meint die Digitalisierung menschlicher Wissensfähigkeiten. KI ist der Versuch, Leistungen, für die der Mensch Intelligenz benötigt, auch durch Computer erbringen zu lassen. Das Ziel: dem Menschen physische oder kognitive Assistenzfunktionen anzubieten. Aber wird über herausragende KI-Erfolge öffentlichkeitswirksam berichtet (1997: Schach, 2011: Jeopardy, 2016: Go, 2017: Poker), fremdelt das menschliche Selbstverständnis mit seinen Kreationen. Skepsis und Hoffnung befeuern sich wechselseitig: Überholt uns die Eigendynamik der weltweit entfesselten digitalen Kreativität? Hilft KI bei der Lösung der drängendsten Probleme unserer Zeit? KI ist in vielen Anwendungen wünschenswert, in manchen lebensrettend. KI kann Menschen konstruktiv unterstützen, aber nicht kreativ ersetzen. Aktuelle KI-Anwendungen ermöglichen Diagnoseunterstützung für Ärzte, effizientere Abläufe im Unternehmen, Entlastung von monotonen Arbeitsroutinen, neue Formen der Mobilität, neue Services und Geschäftsmodelle, neue Consumer Electronic Produkte. Aber die Vielfalt der neuen Werkzeuge führt noch nicht zu einer allgemeinen KI, einem Ganzen, das mehr ist als die Summe seiner Teile. Nutzen und entwickeln sollten wir diese reichhaltigen Chancen von „Multiplicity“, das Konzept von „Singularity“ sollte man nicht vergessen, kann man diskutieren, aber es sollte eher Gegenstand von Romanen und Drehbüchern bleiben. Jetzt geht es um konkrete Fragen, die der Mittelstand jetzt adressieren kann, um konkrete Ziele und Wege, wie KI helfen kann, diese zu erreichen. KI hat viel Potenzial, aber der gesunde Menschenverstand ist unschlagbar. Menschen sind Meister, Komplexität zu reduzieren und dann das Richtige zu tun. Wir haben eine Meisterschaft, die wir meisterlich unterschätzen.
09:45 - 10:30
Ethik in der Künstlichen Intelligenz Prof. Dr. Christoph Lütge, Technical University of Munich  
Künstliche Intelligenz hat das Potenzial, das Leben vieler Menschen nachhaltig zu verbessern, sei es im Gesundheitswesen, beim autonomen Fahren, durch Big Data-Anwendungen usw. Aber sie benötigen klare Regeln, um dieses Potenzial auch zu entfalten. Dieses Regeln sollten nicht nur rechtliche Regulierungen sein, es braucht vor allem ethische Richtlinien, um weitverbreitete Befürchtungen zu adressieren. Beispiele aus unterschiedlichen Bereichen werden diskutiert.
10:30 - 11:00
Pause und Networking
11:00 - 11:45
KI als Werkzeug für Ingenieure Dr. Steven Peters, Mercedes-Benz  
Künstliche Intelligenz insbesondere maschinelles Lernen ist ein Werkzeug, das alle Bereiche eines Unternehmens in den nächsten Jahren prägen wird. Ziel der Keynote ist es, mit konkreten Beispielen die Potentiale der Technologie für Produkte und Prozesse aufzuzeigen und gleichzeitig den Hype etwas zu entmystifizieren.

Parallele Sessions

11:45 - 17:15
Session 1 KI in Embedded Anwendungen
11:45 - 12:15
Einsatz von FPGA-Modulen vom Edge zur Cloud in smarten Fabriken, Smart City und smarten Vertriebslösungen Jens Stapelfeldt, Xilinx  
Xilinx Alveo from Edge to Cloud to enable Smart Factory, Smart City or Smart Retail applications! The digital transformation is a key investment area for many industrial dominated European countries and multinational Industrial companies. We see a paradigm shifts in the context of distributed computing from a pure centralized cloud approaches to intelligent mix including moving intelligence back to the edge in of the network. Many of this application get there ‚¬Å€œSmart Part‚¬Â from implementing Artificial Intelligence AI in the hardware flow. This talk will give an overview of the capabilities of the new Xilinx Alveo acceleration boards the VITIS AI tools flow and several application examples.
12:15 - 13:45
Mittagspause und Networking
13:45 - 14:15
Umsetzung tiefer Neuronale Netze auf FPGAs Prof. Dr. Martin Kumm, Hochschule Fulda  
Zur Auswertung tiefer Neuronale Netze in eingebetteten Systemen bieten Field Programmable Gate Arrays (FPGAs) ein besonderes Potential. Durch die nebenläufige Ausführung aller Rechenressourcen lässt sich eine sehr hohe Rechenleistung bei gleichzeitig niedrigem Energiebedarf pro Rechenschritt erreichen, was komplexe Echtzeit-KI-Anwendungen auch in eingebetteten Systemen ermöglicht. Die Energieeffizienz von FPGAs liegt für die Auswertung (Inference) in den meisten Fällen deutlich über der von herkömmlichen Graphics Processing Units (GPUs) oder CPUs. Im Gegensatz zu diesen, lassen sich FPGAs in ihrer Struktur frei konfigurieren. Dies erlaubt auf der einen Seite viele Freiheitsgrade da sowohl die Wortbreite aller Rechenoperationen als auch die Architektur der Berechnungen (welche Berechnungen erfolgen parallel, welche sequenziell?) festgelegt werden können. Auf der anderen Seite müssen diese Freiheitsgrade auch sinnvoll genutzt werden um das größtmögliche Potential des verwendeten FPGAs auszunutzen. Der Vortrag soll zunächst einen Überblick über den Einsatz von FPGAs zur Umsetzung von KI-Verfahren, insbesondere von den populären Convolutional Neural Networks (CNNs), geben. Dies erfolgt in Relation zu Alternativen wie GPUs, CPUs oder spezialisierten Prozessoren wie dem TPU Edge Prozessor von Google. Anschließend soll auf die speziellen Aspekte der Umsetzung von CNNs auf FPGAs eingegangen werden, beispielsweise die Wahl der Rechenwortbreite sowie deren Auswirkungen auf das Training, grundlegende Architekturen (Co-Prozessor Beschleuniger geg. datenflussbasierten Architekturen) sowie die Wahl der zugrundeliegenden Recheneinheiten. Abschließend sollen Ergebnisse von Arbeiten unter Mitwirkung des Vortragenden vorgestellt werden. In unterschiedlichen Arbeiten in Zusammenarbeit mit der Universität Kassel sowie der University of Sydney wurden Optimierungen der Recheneinheiten speziell für CNNs vorgenommen. In weiteren Arbeiten zusammen mit der Firma Xilinx stand die Erhöhung der funktionalen Sicherheit im Vordergrund. Ziel dieser Arbeiten ist die Entwicklung eines automatisierten Toolflows der für ein gegebenes CNN eine hochangepasste FPGA-Architektur generiert.
14:15 - 14:45
Pause
14:45 - 15:15
Edge AI am Beispiel von Microsoft Azure Raphael Goj, M&M Software; Dirk Stadtherr, M&M Software  
Einleitung: Im Rahmen dieses Vortrags wird einleitend der aktuelle technologische Fortschritt im Kontext von Microsoft Azure beleuchtet. Neben vieler Neuerungen rund um die Cloud sind vor allem fertige AI Services und deren Ausführbarkeit auf Edge Plattformen stark gereift. Es wird neben einem einführenden Überblick über die Azure IoT Edge Technologien auf die treibenden Faktoren von AI Edge-Lösungen eingegangen. Hauptteil: Der Fokus des Vortrags liegt dabei auf Azure Edge Bausteinen, welche AI Fähigkeiten mitbringen oder helfen eigene AI Module zu erstellen. Es werden drei Bereiche im AI vorgestellt. - Azure Cognitive Services: vorgefertigte AI Lösungn für Softwareentwickler - Azure Stream Analytics: Echtzeitüberwachung von Datenströmen und Erkennung von Anomalien - Azure Machine Learning: Individuelle AI-Lösungen auf Basis von Microsoft und Open Source Technologien. Im weiteren Vortrag wird auf den AI Edge-Prozess eingegangen und wie dieser mit dem Standard AI Prozess zusammen spielt. Abschließend wird ein Praxisbeispiel gezeigt, welches die Bereitstellung eines KI Moduls auf einem handelsüblichen Edge Gerät demonstriert. Dieses Gerät wird heute bereits im Anlagen- und Maschinenbau für Steuerungsaufgaben eingesetzt.
15:15 - 15:45
KI-Anwendungen auf STM32-Mikrocontrollern betreiben Corinna Babin, STMicroelectronics  
ST has been actively involved in AI research topics, leading to the launch of its latest product to run embedded AI. The STM32 microcontroller portfolio allows embedded developers to achieve unprecedented productivity. They can map and run pre-trained Artificial Neural Networks (ANN) thanks to the STM32Cube.AI extension pack, enabling AI on STM32 Arm® Cortex®-M-based MCUs. AI enables much more efficient end-to-end solutions when the analysis done in the cloud is moved closer to the sensing and actions. This distributed approach significantly reduces both the required bandwidth for data transfer and the processing capabilities of cloud servers, leveraging modern computing capabilities at the edge. We'll details the approach to map and run embedded AI on MCUs with pre-trained Artifical Neural Networks.
15:45 - 16:15
Pause und Networking
16:15 - 16:45
Kooperative Künstliche Intelligenz Dr. Daniel Gaida, Hahn-Schickard-Gesellschaft für angewandte Forschung  
In klassischen Projekten im Bereich der künstlichen Intelligenz (KI) wird bisher eine Infrastruktur gewählt, welche vorsieht, dass die Daten zentral in einer Cloud gespeichert werden und dort auch das KI-Modell trainiert wird. Diese Infrastruktur ist allerdings nicht mehr zeitgemäß, da durch die zentrale Speicherung der Daten die Privatsphäre der Datenurheber verletzt wird, die Manipulation von Daten vereinfacht wird und übersehen wird, dass KI-Modelle mittlerweile auch auf eingebetteten Systemen wie bspw. Smartphones oder Einplatinencomputern trainiert werden können. In diesem Beitrag wird ein Konzept vorgestellt, welches ermöglicht kooperativ KI-Modelle zu erstellen. Dieses Konzept weist die oben genannten Probleme nicht auf und ermöglicht auch miteinander in Konkurrenz stehenden Unternehmen gemeinsame KI-Projekte durchzuführen von denen beide Partner profitieren. Wesentliche Idee zur kooperativen Erstellung von KI-Modellen ist das verteilte Training von KI-Modellen. Zentraler Bestandteil dabei ist, dass dort wo die Daten erhoben werden (bspw. von Sensoren in einer Produktionsmaschine, in einem Auto oder Haushaltsgerät) auch ein KI-Modell mit den vor Ort vorhandenen Daten trainiert wird. Diese KI-Modelle werden dann an eine Cloud gesendet, wo die einzelnen KI-Modelle aller miteinander kooperierenden Partner zu einem globalen KI-Modell zusammengeführt werden. Das neue globale KI-Modell wird zurück an die Teilnehmer gesendet und ersetzt das lokale KI-Modell, falls es besser ist, was in der Regel der Fall ist. Liegen neue Daten bei den Teilnehmern vor, werden diese erneut genutzt, um die lokalen KI-Modelle zu verbessern und der Zyklus startet erneut. Vorteile des verteilten Lernens: - Die Privatsphäre der einzelnen Teilnehmer bleibt geschützt, da die Daten nicht direkt ausgetauscht werden. - Miteinander in Konkurrenz stehende Partner können so ebenfalls kooperieren, da beide einen Vorteil erhalten. - Da die KI-Modelle deutlich kleiner sind im Vergleich zu den Rohdaten, wird Übertragungsenergie gespart. Zur Idee der kooperativen KI gehört auch, dass ursprünglich unbeteiligte Teilnehmer bereits erstellte KI-Modelle nutzen können, ggf. gegen Bezahlung, und diese auch weiter verbessern können. Dazu wird eine Plattform benötigt, welche Kooperationen ermöglicht, allerdings auch die Sichtbarkeit von KI-Modellen für bestimmte Benutzergruppen einschränkt und insbesondere alle Veränderungen an KI-Modellen transparent und fälschungssicher protokolliert. Bei Hahn-Schickard wird an der kooperativen KI und dem verteilten Lernen in anwendungsnahen Forschungs- und Entwicklungsprojekten gearbeitet. Aktuell liegt ein Demonstrator vor, welcher das Prinzip des verteilten Lernens auf Edge Geräten anhand des Anwendungsfalls der vorausschauenden Wartung für Turbinen demonstriert. In aktuellen Forschungsprojekten wird das Konzept auch in medizinischen Anwendungen und in weiteren industriellen Anwendungen umgesetzt. Diese und weitere Ergebnisse werden in dem Vortrag vorgestellt.
16:45 - 17:15
Adaptive Neuronale Netzwerke auf Mikrocontrollern Raphael Zingg, ZHAW Institute of Embedded Systems  
Nowadays, neural networks are used in numerous areas. Neural networks are not only used on high-performance graphic card clusters, but more frequently on microcontrollers. The use of neural networks on widespread microcontrollers opens up a new range of applications. Moreover, running a neural network in real time on the device where data is measured is advantageous. There are seveal frameworks which convert trained neural networks into source code or libraries which can be integrated into bare-metal applications. The generated source code, which defines the neural networks, is static and therefore not further trainable on the microcontroller. This paper investigates methods to make neural networks adaptive on microcontrollers. The benefit of an adaptive neural network is that it can react to a changing environment. This process is also known as domain adaptation. A neural network is always trained on data from a certain origin, called the source domain. If a neural network is deployed into the real world, the target domain, there is a discrepancy between the source and target domain data. The goal of domain adaptation methods is to adapt the deployed neural network to the target domain data in the field. There are solutions to solve this problem. One solution is "Asymmetric Tri-training for Unsupervised Domain Adaptation (atda)". Atda achieves state of the art domain adaptation results. Due to its large memory requirement it is not directly usable on a microcontroller. A new algorithm emb-atda was developed. Emb-atda is based on atda and is better suited to work on a microcontroller. The python implementation of emb-atda achieves comparable or better results than atda, while having a smaller memory footprint.

Parallele Sessions

11:45 - 16:45
Session 2 KI im Auto
11:45 - 12:15
KI für Sicherheit und Effizienz im autonomen Fahren Frank Thurner, mts Consulting & Engineering
12:15 - 13:45
Mittagspause und Networking
13:45 - 14:15
KI für autonomes Fahren mit Fokus auf Umfelderfassung / Perzeption Dr. Heinrich Gotzig, Valeo Schalter und Sensoren  
In automotive industry there is a need to provide the driver with awareness about the vehicle surroundings. One type of this awareness of the surrounding environment is the indication of the presence of an obstacle in the vicinity of the occupied vehicle. This information is then directly provided to the driver or used as input for further functionalities such as collision mitigation through braking or automatic parking. This information can be provided by using several types of sensors such as cameras, radars, laser scanners and active ultrasonic sensors. Active ultrasonic sensors are a very lucrative solution for car manufacturers to achieve this target due to their cheap prices, stable performance and their measurements being of suitable precision. Applying machine learning for different sensor principles will provide sensor specific informations which are mandatory to achieve the necessary cost, performance, reliability requirements for the key task of autonomous drining namely environmental perception.
14:15 - 14:45
Pause
14:45 - 15:15
Absicherung von Machine-Learning-Verfahren in sicherheitskritischen Systemen Adrian Schwaiger, Fraunhofer IKS  
Bei der Entwicklung zukünftiger hochkomplexer Computersysteme, zum Beispiel autonomer Systeme, moderner Medizingeräte oder bei Aufgabenstellungen für Industrie 4.0, wird herkömmliche Algorithmik an ihre Grenzen stoßen und KI-basierte Systeme werden unabdingbar sein. Maschinelles Lernen (ML), insbesondere tiefe neuronale Netze (DNNs), zeigen immer wieder beeindruckende Leistungen in verschiedenen Bereichen, etwa bei Sprachassistenten, dem Brettspiel Go oder prototypischen autonomen Fahrzeugen. Diesen Anwendungen ist jedoch gemein, dass Fehler nicht zu gefährlichen oder gar fatalen Situationen führen. Erkennt ein Sprachassistent ein Wort beim Verfassen einer Notiz nicht oder stellt den Wecker eine Stunde zu früh, so ist das ärgerlich, hat aber in den seltensten Fällen schwerwiegende Komplikationen. Ebenso sind bei autonomen Testfahrzeugen noch menschliche Sicherheitsfahrer dabei, die aufmerksam dem Geschehen auf der Straße folgen und im Notfall die Kontrolle über das Vehikel übernehmen. Agiert ein System hingegen komplett autonom und übersieht eine Person auf der Fahrbahn oder erkennt einen Materialfehler in einem Flugzeugbauteil nicht, kann dies zu gravierenden Folgen führen. Die Schwierigkeit bei komplexeren ML-Verfahren ist jedoch, dass das Ausschließen von Fehlern vor der Inbetriebnahme und die zuverlässige Erkennung von Fehlern zur Laufzeit nicht trivial ist. Dies schränkt aktuell den Einsatz von ML in sicherheitskritischen Systemen deutlich ein und erfordert neue Ansätze, um zukünftig auch in diesen Bereichen von den Vorteilen, die ML bietet, profitieren zu können. Unsere Forschung fokussiert sich aktuell deshalb darauf, mehr Informationen von den DNNs selbst hinsichtlich ihrer Entscheidung zu erhalten und sie im Allgemeinen transparenter zu gestalten. Konkret reicht das von der Unsicherheitsbestimmung neuronaler Netze, über die Erkennung unbekannter oder gar schadhafter Eingaben hin zur besseren Erklärbarkeit des Verhaltens von DNNs. Diese Informationen werden anschließend genutzt, um sichere adaptive Systeme zu gestalten und das Gesamtsystem schon beim Entwurf abzusichern. Derzeitiges Anwendungsgebiet ist vor allem die Absicherung der Perzeption autonomer Fahrzeuge. Durch die Generalisierbarkeit der Methoden ist jedoch auch ein Einsatz in anderen Bereichen, etwa in der Medizin oder Industrie 4.0, denkbar. Dieser Vortrag gibt einen Einblick in Methoden, die dazu beitragen, das Vertrauen in ML-Verfahren zu erhöhen, basierend auf unserer aktiven Forschung im Bereich des zertifizierbaren Machine Learnings.
15:15 - 15:45
Auswirkungen von KI auf den Weg zum Autonomen Fahren Dr. Manuel Götz, ZF AI & Cybersecurity Center  
Welche Bedeutung kommt künstlicher Intelligenz bei der Entwicklung des autonomen Fahrens beim Technologiekonzern ZF zu? Dr. Manuel Götz stellt in seinem Vortrag verschiedene KI-Anwendungen vor und beschreibt unter anderem den Einsatz von KI-Algorithmen in den Bereichen Umfeld-Sensorik, Routenplanung, Vehicle Motion Control, integrierter Sicherheit und virtueller Validierung. Er stellt aktuelle Ansätze und Entwicklungen von ZF vor und diskutiert ihre Möglichkeiten anhand anschaulicher Beispiele. Darüber hinaus werden die notwendigen Voraussetzungen hinsichtlich der HPC KI Rechen- und Schulungsinfrastruktur für den Einsatz und die Entwicklung von KI-Algorithmen diskutiert und Lösungen wie der KI-fähige Zentralrechner ZF ProAI vorgestellt.
15:45 - 16:15
Pause und Networking
16:15 - 16:45
KI-Studie für selbstfliegende Vehikel: Die Herausforderungen für Deep Learning im Autonomen Fliegen Dr. Stefan Milz, Spleenlab / Technische Universität Ilmenau  
Alle sprechen von einem intuitiven und automatisierten Transport sowie New Mobility. Ein wichtiger und sehr anspruchsvoller Teil dieses Forschungsfeldes sind autonome unbemannte Luftfahrzeuge (UAV) wie automatisierte Lufttaxis mit vertikaler Start- und Landefähigkeit (VTOL). Einerseits werden autonome VTOLs unser persönliches Verständnis von urbaner Mobilität neu gestalten, andererseits werden automatisierte UAVs jede Art von Liefer- und Transportdienstleistungen drastisch verändern und vieles mehr. Bei der Untersuchung von Computer Vision und maschinellen Lernens für UAVs oder VTOLs wird es jedoch immer schwieriger auf dem neuesten Stand zu bleiben. Wir bieten eine Übersicht zum Thema automatisierte Flüge mit Fokus auf anspruchsvolle Deep-Learning-Probleme. Wir liefern Ideen für mögliche Sensoranordnungen und KI-basierte Pipelines mit führenden Ergebnissen auf etablierten Datensätzen. Schlussendlich weisen wir auf derzeit fehlende Untersuchungen hin, vor Allem im Bereich funktionaler Sicherheit mit Deep Learning.

Parallele Sessions

11:45 - 17:15
Session 3 KI in der Fabrik
11:45 - 12:15
End-of-life or signs-of-life? Predicting non-events by inverting the forecasting paradigm Andrew Kenworthy, Balluff  
Time-to-event problems occur across industries and across use-cases within industries, be it predictions of customer churn in the sales domain, remaining-useful-life (or time-to-failure) in the realm of predictive maintenance, or anomaly detection relating to machine monitoring. In some cases, the combination of a) the scarcity of the target events, and b) the fact that they are not always "observable" (meaning that they occur implicitly and are thus only visible in retrospect, for example in the case of customer churn where there exists no formal contractual or trackable relationship with the customer), suggests that it may worth be considering the problem from another perspective: that of predicting the interim events, the continued occurence of which precludes the target event. This talk first describes the theory of combining Weibull distributions with recurrent neural networks, followed by looking at challenges and considerations pertinent to industry- and machine-data-relevant scenarios.
12:15 - 13:45
Mittagspause und Networking
13:45 - 14:15
Kognitive Produktionssysteme: Maschinelles Lernen im industriellen Einsatz Prof. Dr. Marco Huber, Fraunhofer IPA  
Maschinelle Lernverfahren haben in letzter Zeit im Bereich der künstlichen Intelligenz zu enormen Fortschritten bei der automatischen Erkennung und Verarbeitung von komplexen Daten und deren Zusammenhänge geführt. Die Anwendung von Lernverfahren ist insbesondere dann sinnvoll, wenn Ursachen-Wirkzusammenhänge nur sehr schwer oder überhaupt nicht mit mathematischen Methoden analytisch beschreibbar sind, aber stattdessen umfangreiche Daten vorliegen. Diese Situation wird im produktionstechnischen Umfeld an vielen Stellen angetroffen. Produktionsanlagen nehmen ihren Zustand sensorisch auf, sodass Lernprozesse angestoßen, Handlungspläne generiert und diese anschließend ausgeführt werden können, wodurch sich fortwährend Optimierungen in Produktionsprozessen einstellen. In diesem Vortrag werden hierzu grundlegende Methoden des maschinellen Lernens im Produktionsumfeld sowie deren Einsatz in der Praxis aufgezeigt. Insbesondere werden hierbei Anwendungsfälle betrachtet, welche durch das Zentrum für Cyber Cognitive Intelligence (CCI) sowie das KI-Fortschrittszentrum "Lernende System" des Fraunhofer IPA gemeinsam mit produzierenden Unternehmen und Forschern des Cyber Valley gelöst wurden. Beide Zentren sind vom Wirtschaftsministerium des Landes Baden-Württemberg geförderte KI-Forschungseinrichtungen mit speziellem Fokus auf den Transfer von der Grundlagenforschung in die industrielle Anwendung. Die in diesem Vortrag betrachteten Anwendungsfälle behandeln unter anderem die Themen industrielle Robotik, Qualitätsprüfung und -sicherung, Produktionsoptimierung oder Intralogistik ab.
14:15 - 14:45
Predictive ERP - Intelligent Enterprise Operations Management Lars Schubert, iFAKT  
EXECUTIVE SUMMARY I4.0 paradigms can lead to improvements in efficiency and customer satisfaction. However, taking advantage of IoT technologies, AI algorithms, and Information Systems through all the company levels is a big challenge. Notably, trying to coordinate distinct backbone systems to deal with different types of data and optimize decision making is a complex task. In the document, we introduce the Enterprise Operations AI Platform, which helps to manage such complexity and accelerates the transformation to adopt I4.0 paradigms. By integrating the three major information layers (the Smart Factory, the Digital Thread, and the Value Chain Management) to orchestrate the company operations, the Enterprise Operations AI Platform presents itself as the brain and heart of the I4.0. This Enterprise Operations AI Platform is represented by the Predictive ERP, a solution meant to intelligently control and execute the PLM, MES and ERP systems. To create a model of the company and adapt to a dynamic environment, the Predictive ERP uses both Parametric Simulation models, which are based on a PPR approach and Predictive Analytics models, based on Machine Learning. This allows the Predictive ERP to respond to unexpected events, disruptive changes and new operations. Finally, we show how the Predictive ERP can deal with volume, velocity, veracity and variety in data, to generate added value. Particularly, two elements are to be highlighted: firstly, the cloud computing and AI services provided by Azure will help to deal with data velocity, volume and veracity. Secondly, the Predictive ERP capabilities allow it to integrate data from different sources, which tackles the variety challenge in big data. Here you can find the whole Whitepaper for more information: https://www.ifakt.de/application/files/3715/6698/0726/white-paper-shaping-the-future-of-smart-manufacturing-with-predictive-erp-XS.pdf
14:45 - 15:15
KI-basierte Anomaliedetektion in der Produktion Dr. Olaf Enge-Rosenblatt, Fraunhofer IIS/EAS  
Im Zuge der Transformation in Richtung Industrie 4.0 werden in vielen Unternehmen bereits heute große Mengen an Daten zum Zweck des Condition Monitoring aufgenommen. Mit der stetig zunehmenden Menge an IoT-Komponenten werden diese Datenmengen zukünftig weiterhin enorm wachsen. Für den Menschen wird es dabei zunehmend schwerer, den Überblick über den Inhalt der aufgenommenen Daten zu behalten, Zusammenhänge in diesen zu erkennen und schließlich den Zustand einer Anlage bestehend aus vielen Komponenten korrekt einschätzen zu können. Automatisierte Lösungen aus dem Bereich des maschinellen Lernens bieten enorme Vorteile bzgl. Analyseaufwand und Erkennungsgenauigkeit potentieller Schadensfälle. Die direkte Klassifikation spezifischer Schadensfälle ist jedoch aufgrund der für Fehlerfälle oftmals nicht vorhandenen Daten vielfach nicht anwendbar. Stattdessen müssen in der Regel Daten des Normalbetriebs (‚¬Å¾Gut-Fälle‚¬Å€œ) ausreichen. Abweichungen davon werden als Anomalien bezeichnet und können mittels Verfahren des maschinellen Lernens (ML) erkannt werden. Dieser Vortrag gibt einen Überblick über wesentliche Methoden der Anomalieerkennung und liefert Beispiele für deren erfolgreiche Integration in bestehende Produktionsabläufe. Als einfachstes Anomalie-Erkennungsverfahren wird die Verwendung von statistischen Kenngrößen (Mittelwert, Standardabweichung, z-Score, ‚¬Â¦) eines gemessenen Signals betrachtet, um ungewöhnlich große oder kleine Signalwerte festzustellen und/oder ungewöhnliche Signalverläufe mit Regelkarten zu erkennen. Diese Verfahren setzen aber sehr gutartige Signale voraus (Stationarität, Signalwerte unabhängig, identische Normalverteilung). Bei ungünstigen Wahrscheinlichkeitsverteilungen können z.B. One-class SVMs oder Gaussian Mixture Models benutzt werden, um ungewöhnliche Signalwerte bzw. Merkmale zu erkennen. Bei nicht-stationären Signalen bieten Hidden Markov Models eine Möglichkeit, die Abweichung vom Normalfall zu messen. Wenn die Signalwerte nicht unabhängig sind (aber eine lineare Dynamik vorliegt), ist es möglich mit ARIMA-Modellen oder Kalman-Filtern eine Signalvorhersage durchzuführen und den Vorhersagefehler als Maß für die Abweichung vom ‚¬Å¾Gut-Fall‚¬Å€œ auszuwerten. Je nach den betrachteten Signalen bzw. Merkmalen ist auch die Verwendung einer PCA mit Berechnung des Projektionsfehlers zur Anomalieerkennung geeignet. Neben den genannten Verfahren des klassischen ML werden im Vortrag auch Deep-Learning-Verfahren vorgestellt. Diese zeichnen sich gegenüber klassischen ML-Methoden durch einen geringeren Datenvorverarbeitungsaufwand aus. Für die Anomalieerkennung besonders geeignet sind Autoencoder. Ähnlich wie bei der PCA wird hierbei eine Dimensionsreduktion vorgenommen mit dem Unterschied, dass das Modell auch nichtlineare Zusammenhänge in den Daten lernen kann. Ein weiteres betrachtetes Deep-Learning-Verfahren ist die Vorhersage des betrachteten Signals mit rekurrenten neuronalen Netzen in Verbindung mit einer Auswertung des Vorhersagefehlers.
15:15 - 15:45
Predictive Maintenance auf dem Edge Device und der SPS - vom Algorithmenentwurf zur industriellen Anwendung Dr. Rainer Mümmler, The MathWorks  
Predictive Maintenance ist mittlerweile eine etablierte Anwendung für Industrieunternehmen, bei der Machine Learning Techniken direkt eingesetzt werden können, um einen Mehrwert in bestehenden Arbeitsabläufen zu schaffen. Diese Präsentation zeigt den Predictive Maintenance Arbeitsablauf am Beispiel einer Verpackungsmaschine. In der ersten Phase werden maschinelle Lernalgorithmen für die vorbeugende Instandhaltung entwickelt. Dabei werden insbesondere Daten aus dem fehlerfreien Betrieb und Fehlerdaten mit Hilfe eines Digital Twin Modells generiert, das physikalische Komponenten beinhaltet. Zwei Methoden werden hier untersucht. Die erste konzentriert sich auf die Verwendung von Apps, um ohne Verzögerung mit der Extraktion von Funktionen, der Entwicklung von Algorithmen und dem Testen zu beginnen, wobei die vom digitalen Zwillingsmodell generierten Batch-Daten verwendet werden. Als Alternative dazu können Online - Machine Learning Techniken verwendet werden, um die Parameter des Machine Learning Modells kontinuierlich zu aktualisieren, indem aus Live-Daten gelernt wird. Das Klassifizierungsmodell ist so aufgebaut, dass es den Zustand des Systems überwacht und zwischen verschiedenen Fehlern am Getriebe und am Servomotor unterscheiden kann. Für diese Algorithmen wird C-Code automatisch generiert und in eine Industriesteuerung oder SPS importiert, die in Echtzeit gegen ein Echtzeithardwaresystem der Firma Speedgoat getestet wird, auf der das Anlagenmodell abläuft. Zusätzlich wird ein exponentielles Degradationsmodell entworfen, um die Restnutzungsdauer (RUL) des Lagersystems vorherzusagen. Nach der Entwicklungsphase erfolgt ein direkter Übergang zum Design des Betriebsleitsystems, das kontinuierlich mit dem Apache Kafka Streaming-Protokoll die Daten der Maschine verarbeitet, sowie die direkte Verbindung zu einem MATLAB Production Server zum einfachen Testen. Die endgültige Architektur läuft komplett in der Cloud, was flexible Skalierungsoptionen ermöglicht. Der Bediener kann dann über ein Web-Dashboard die gewünschten Informationen einsehen und bei Bedarf Maßnahmen einleiten.
15:45 - 16:15
Pause und Networking
16:15 - 16:45
Anwendung von KI in der Antriebstechnik: von Prozess bis Konfiguration Dr. Alexey Fofonov, Lenze.Digital  
Alles, was die Industrie von morgen betrifft, wird schon heute erprobt. Themen wie Condition Monitoring, Predictive Maintenance, Anomalieerkennung und die Anwendung künstlicher Intelligenz treiben digitale Innovationen in allen Industriebereichen voran. Die Anwendungspotentiale der modernen Methoden ermöglichen es, Kosten zu reduzieren, neue Werte zu generieren, Prozesse zu optimieren und die Qualität zu verbessern. Daneben lassen sich aus der Analyse der bereits vorhandenen historischen Daten neue Erkenntnisse ableiten, bei denen noch kein zusätzlicher Nutzen zu erwarten war. Während die begrifflichen Grundlagen dieser Technologien häufig bereits bekannt sind, fehlt es oft an konkreten Anwendungsbeispielen. Die Anwendung der vorhandenen Methoden, unabhängig von ihrer Komplexität, erfordert ein ausgeprägtes Verständnis für alle Phasen der Lösungsentwicklung. So sind Aufgaben wie Problemstellung, Versuchsplanung, Modellentwicklung und Auswertung für die erfolgreiche Umsetzung gleichermaßen wichtig. Als eines der weltweit führenden Automatisierungsunternehmen für den Maschinenbau entwickelt das Unternehmen Lenze mit und für seine Kunden hochwertige mechatronische Produkte, leistungsfähige Systeme bestehend aus Hard- und Software für erfolgreiche Automatisierungs- und Digitalisierungsdienstleistungen. Daher ist es eine der ersten Prioritäten, die modernsten Lösungen zu entwickeln und unseren Kunden zu helfen, den maximalen Nutzen aus ihnen zu ziehen. Durch unsere Kernkompetenz im Bereich der Elektromotoren und Antrieben haben wir umfangreiche Erfahrungen mit der Analyse von Daten wie Motorstrom-, Drehmoment- und Frequenzspektren gesammelt und vertiefte Kenntnisse in den relevanten Themen aufgebaut. So beschäftigen wir uns mit der Analyse von Zeitreihen mit mehreren Variablen, einschließlich der Muster- und Ausreißererkennung. Zugleich analysieren wir den hochdimensionalen Konfigurationsraum und untersuchen strukturelle Zusammenhänge unserer Produkte, die durch tausende von numerischen und kategorialen Attributen beschrieben werden. In unserem Beitrag zeigen wir, wie Techniken wie Statistik, maschinelles Lernen, Dimensionalitätsreduktion und Datenvisualisierung helfen, Wert aus den Daten zu extrahieren. Wir prüfen reale Anwendungsszenarien und zeigen, wie einfache Ideen sich in umfangreichen Prototypen entwickeln. Wir untersuchen die Problematik der Vollständigkeit der abgeleiteten Lösungen und zeigen, dass jedes datengetriebene Projekt eine echte Studie erfordert, um zuverlässige Ergebnisse zu liefern.
16:45 - 17:15
Visuelle Gestenerkennung für die Mensch-Roboter-Interaktion basierend auf Deep Learning Dennis Grannemann, Hentschel System  
Computer Vision ist ein besonders potentes Feld für die Anwendung von neuronalen Netzen. Angefangen bei einer einfachen Klassifizierung von Bildern nach ihrem Inhalt bis hin zu pixelgenauer lokalisierung von kleinen Objekten oder der Detektion von menschlichen anatomischen Merkmalen gibt es eine Vielzahl an Anwendungsfeldern für Deep Learning und Neuronale Netze. Diese sind in der lage, hochkomplexe Zusammenhänge in den reichhaltigen Bildinformationen zu finden und erstaunliche Ergebnisse zu liefern. Der Vortrag präsentiert ein Verfahren zur natürlichen Kommunikation und Interaktion zwischen Mensch und intelligenten Systemen über Gesten. Dabei wird nur eine einzelne RGB-Kamera als Sensor genutzt, was zusätzliche Bediengeräte für Systeme überflüssig macht. Die Gestenerkennung wurde mit speziellem Fokus auf kurzer Laufzeit entwickelt und kann so zu 100% auf einem mobilen Roboter, der elektrisch angetrieben ist, eingesetzt werden. Für diesen Roboter wurde mithilfe der Gestenerkennung eine Bewegungs- und Funktionssteuerung realisiert. Ein embedded PC liefert die nötige Rechenleistung für den parallelen Betrieb der Gestenerkennung und weiteren, klassischen Anwendungen. Trainiert wurde das zugrundeliegende neuronale Netz per Transfer Learning (Fine-Tuning) und eigens angefertigten Trainingsdaten, die die wichtigste Grundlage für den Erfolg für Deep Learning bilden.

Parallele Sessions

17:30 - 18:15
Abschluss-Keynote Abschluss-Keynote
17:30 - 18:15
Solving the AI productization challenges: Adaptability from sensor to brain to action Ramine Roane, Xilinx  
Now with the AI buzz word passed its peak, companies are increasingly focused on productization of AI-based systems in fields such as automotive, industrial, and medical. There are two major challenges: 1) AI inference requires orders of magnitude more computation, while keeping the price, power, latency, form factor intact, 2) AI scientists continue to innovate daily on the algorithms and models that require different hardware architecture to be optimal. Such rapidly innovating high demands fundamentally require an adaptable Domain Specific Architecture (DSA) to be implemented from sensor to brain to actions: optimizing end-to-end system deep down from the hardware architecture all the way up to the software runtime.

WEKA-FACHMEDIEN-EVENTS

In enger Zusammenarbeit mit anerkannten Experten und den verantwortlichen Redaktionen
unserer bekannten Medienmarken veranstalten wir jährlich rund 50 nationale und internationale B2B-Kongresse, Seminare und Workshops für ein fest definiertes Fachpublikum.

Dazu gehören Themen wie Embedded Systems, Automotive Ethernet, Batterietechnik,
Datacenter, Safety&Security, electronic Displays, Blockchain, IoT, Bordnetz, KI, Smart Building, Digital Workplace, TSN, Wireless-Technologien, Verkabelung und vieles mehr.

Übersicht aller aktuellen Veranstaltungen