Anzeige

Ein Event von

Powered by

To use this page, you need JavaScript enabled

20. November 2019
Mövenpick Hotel Stuttgart Airport

Konferenz Internet of Things – vom Sensor bis zur Cloud

Programm

Mittwoch, 20. November 2019

09:00 - 10:20
Keynote Session Keynotes
09:00 - 09:10
Begrüßung der Teilnehmer Prof. Dr. Axel Sikora, Hochschule Offenburg/Hahn-Schickard
09:10 - 09:40
Keynote: The Future of IoT: Edge Intelligence, Distributed Processing and Data Orchestration Olivier Pauzet, Sierra Wireless  
The IoT is transforming the industry, eliminating the tradeoffs between operations, maintenance and new services for mobile and fixed assets across all sectors. New technologies, including Low Power Wide Area networks and edge processing, are poised to enable massive scale and intelligence at the edge. At the same time, IoT projects are increasingly complex. Developers need a new solution to navigate this growing complexity. This session will feature a new approach for developers: a solution with distributed processing and data orchestration capabilities, that free themselves from the complexity of developing from the deep edge to the cloud and shorten their to-do-list.
09:40 - 10:20
Kaffeepause, Ausstellung & Networking

Parallele Sessions

10:20 - 17:40
Session 1 Security im IoT
10:20 - 11:00
Security Anforderung nach 62443 – Wann ist was zu tun? Max Perner, infoteam Software  
Funktionale Sicherheit nach IEC 61508 erfordert bereits seit Jahren, das Cyber Security in Software Systemen berücksichtig werden muss. Hier verweist die Norm direkt auf die IEC 62443 für Handlungsanweisungen. Um – wie in der IEC 62443 gefordert – ein Security-Level festzulegen und dies im Zuge des Software Entwicklungsprozess zu erreichen wird das Requirements Management um eine Security Ebene erweitert. Auf diese Weise werden Security-relevante Anforderungen parallel zu den übrigen Anforderungen erhoben, festgehalten und Ihre Erfüllung dokumentiert. Wir liefern in unserem Beitrag Beispiele, wie in unseren Projekten solche Anforderungen erhoben werden. Hierbei beachten wir sowohl die Reichweite möglicher Konsequenzen als auch die Angriffsfläche der entwickelten Software-Komponenten. Dabei stellen wir verschiedene gängige Methoden zur Anforderungserhebung für Security Systeme vor.
11:00 - 11:40
Sicherheit im IoT: Eine Plattform zur Evaluation von Secure Elements Lea Zimmerli, ZHAW Institute of Embedded Systems  
Vortrag in deutscher Sprache! Security for resource constrained IoT devices is an important subject. Rising awareness and up-coming regulations will require manufacturers to increase the level of security on their IoT devices. Semiconductor vendors are addressing this demand with dedicated chips, so-called secure elements. Secure elements provide hardware accelerated support for cryptographic operations and tamper proof memory for the secure storage of cryptographically sensitive material. Specifically, they physically isolate sensitive cryptographic material from the application. However, experience from various projects shows, that the selection and the integration of a secure element into a specific application represents a challenge. Accordingly, the paper discusses the development of a multi-vendor evaluation platform. Particularly, the evaluation board, adopting the widespread Arduino shield form factor, features secure elements from five different vendors. Together with the provided integration into Zephyr, the open-source real-time operating system, the board can be easily fitted to various microcontroller development boards. The paper presents the evaluation of secure elements in different IoT applications with the developed evaluation platform. Such evaluations serve to expose the individual characteristics of each secure element. In this regard, it is particularly interesting to compare execution times and energy consumption. The presented work intends to support developers in the selection process for secure elements and therefore to contribute to their adoption in IoT devices.
11:40 - 12:20
Security by Design von IoT-Anwendungen Siegfried Müller, MB Connect Line  
Mit den Digitalisierungsbestrebungen der Unternehmen werden täglich neue Produkte und Services entwickelt. Der neue Digitalisierungsmarkt bietet ein enormes Potential für neue Produkte und Lösungen in den unterschiedlichsten Branchen. Es ist ein leichtes, günstige Hardware zu kaufen und diese mit einer überall erhältlichen Open Source Applikation zu verheiraten. Da wird ein wenig Linux, MQTT und Raspberry PI zusammengesteckt – und fertig ist das IOT-Produkt, das selbst eingesetzt oder gar verkauft wird. Jedoch, wie sieht das in Sachen IT-Sicherheit aus? Es ist nun leicht vorstellbar, dass viele dieser neuen Produkte und Geräte direkt mit dem Internet verbunden sind oder gar eine aktive Schnittstelle zwischen internen Netzwerken und dem Internet bilden. Gleichzeitig weiß man, dass es sich beim Anschluss an das öffentliche Internet um einen sensiblen Übergang handelt, an dem nur vertrauenswürdige Geräte genutzt werden sollten. Aber ist dieses Vertrauen gerechtfertigt, wenn die Geräte rein nach Funktionalität gebaut werden – ohne jeglichen Sicherheitsleitfaden und ohne Sicherheits-Framework? Da drängt sich ein Vergleich mit Safety bzw. funktionaler Sicherheit auf. Es ist heutzutage gar nicht mehr vorstellbar, ohne Risikoanalyse der Sicherheitstechnik eine Maschine zu entwickeln. Oder dass die darin verbauten Sicherheitselemente keine entsprechende Zertifizierung haben. Vielmehr geben Standard und Normen vor, wie Sicherheitskomponenten entwickelt und angewendet werden müssen. Für die Informationstechnik gibt es diese Vorgaben zwar noch nicht, aber mit Security by Design sind die Methoden bekannt. Man muss sie jedoch anwenden. Der Vortrag vermittelt Wissen über gängige Security by Design Prozesse und Handlungsempfehlungen. Insbesondere zum Design von IoT Geräten von der Hardware bis zur Software. Im einzelnen gehts es um Einbindung von Secure Elements, Secure Boot und Secure Firmware mit zwingendem Patchmanagement. Des weiteren beschäftigt sich der zweite Teil des Vortrags mit der Integration von IoT Anwendungen, z.B. mit der Anwendung Docker zur Domänentrennung und welche Rollen heutzutage Daten-Dioden in der Automatisierungswelt spielen.
12:20 - 13:00
How (not) to trust your IoT device Rafael Scheel, Oneconsult Deutschland  
As security consultants, we get the unique opportunity to gain an in-depth view into many different industrial IoT environments. From the small local power plant to the large-scale international mobility service provider, one issue seems to be always bigger than initially expected: How can I trust my devices? IoT devices in consumer and industrial environments can hardly be successfully protected against physical access by attackers in the long run, so that the trust problem comes to the foreground. The challenge is not only to trust data received from a device, but also to not have intellectual property (IP) or other confidential data sent to the device stolen. In the presentation we show typical missteps and challenges for each layer of an IoT environment, which we often find in our security audits, and provide possible solutions. - Trust towards OEMs, the supply chain and partners - Creating a core root of trust on the device - How components such as TPM chips, ARM Trust Zones and Intel SGX can and can't help - Common pitfalls in the protection of the device against physical attacks - Explaining typical issues such as how to trust the time on the device - How to extend the trust into the IoT cloud and from there into the company’s ERP, device management and data analytics tools - Revoking trusts We illustrate ways to create a chain of trust from within the device up to the data analytics and device management services while dealing with real-world conditions such as limited resources.
13:00 - 14:20
Mittagspause, Ausstellung & Networking
14:20 - 15:00
Vom Sensor in die Cloud – Interoperabel, offen und trotzdem sicher? Reiner Duwe, RTI Real-Time Innovations  
Vom Sensor in die Cloud (und zurück) – Offen, flexibel und trotzdem sicher? Ja geht denn das??? Mit herkömmlichen Mitteln wie z.B. Firewalls lässt sich ein offenes System nicht absichern, Softwareansätze aus der IT-Welt sind ebenfalls nicht ohne erhebliche Mängel einsetzbar. Oftmals werden Architekturentscheidungen vorschnell und ohne Berücksichtigung aller relevanten Aspekte getroffen. Einzelne Bereiche werden dann perfektioniert, z.B. die Echtzeitfähigkeit, aber das Gesamtsystem bleibt unter Umständen verwundbar oder hinter den Anforderungen an Interoperabilität und Sicherheit zurück. Der offene Standard ‚Data Distribution Service’ (DDS) der Open Management Group (OMG) bietet hier mit dem datenzentrischen Datenbus ein offenes, flexibles und doch leistungsfähiges Konnektivitäts-Framework. Die gestiegenen IoT-Sicherheitsanforderungen werden durch die Standard-Erweiterung ‚DDS Secure‘ seit 2018 abgedeckt. Anhand von Architekturbeispielen werden Konzepte und Möglichkeiten zur Gestaltung von einfachen Verbindungen bis hin zu komplexen Systemlandschaften aufgezeigt. Fein skalierbare Sicherheitsfunktionen ermöglichen die notwendigen Sicherheitsvorkehrungen, vermeiden aber gleichzeitig unnötigen Rechenaufwand wie er bei kompletten Verschlüsselungen entsteht. IoT-Endpoint-Security und Cybersecurity-Standards wie IEC 62443-3-3, NIST 800-53, NERC CIP 003-7 und US FIPS 140-2 sowie funktionale Sicherheit (z.B. ISO 26262) werden ebenfalls angesprochen.
15:00 - 15:40
Hochsicheres IoT-MCU-Design mit Azure Sphere Martin Grossen, AVNET EMG Silica  
Ein in die Cloud verbundenes IoT MCU Design ohne sich um die Sicherheit kümmern zu müssen? Diesen Traum könnte die neue Azure Sphere Technologie erfüllen. Denn Azure Sphere ist nicht nur ein einfacher Ein-Chip-Mikrokontroller, sondern eine gesamte IoT Hochsicherheitslösung, welche durch einen speziellen Mikrokontroller mit speziellem Betriebssystem und den dazugehörenden Cloud Services einen neuen Sicherheitsstandard im IoT-Bereich setzt. Der Vortrag führt kurz in die Konzepte von Azure Sphere ein und zeigt wie einfach neue IoT Lösungen auf Basis von Microsoft Azure gebaut werden können.
15:40 - 16:20
Kaffeepause, Ausstellung & Networking
16:20 - 17:00
Zuverlässige und sichere IIoT-Kommunikation mit MQTT Juergen Kern, NetModule  
«MQTT (Message Queue Telemetry Transport)» hat sich inzwischen zu einem der wichtigsten Protokolle für IoT entwickelt. Es ist ist ein äußerst einfach aufgebautes binäres Protokoll und optimal für den Daten- und Nachrichtenaustausch zwischen Geräten mit geringer Funktionalität. Häufig wird es für die Übertragung über eher instabile Netze mit geringer Bandbreite und hoher Latenz an eine Cloud verwendet. Typischerweise werden mit MQTT Sensordaten, wie Temperatur, Füllstände oder Betriebszustände übertragen, aber auch allgemeine Textnachrichten. So nutzt Facebook beispielsweise MQTT für seine Mobile-Apps. Das MQTT-Protokoll arbeitet nach dem Publish-Subscriber-Prinzip. Das zugrunde liegende Übertragungsmodell besteht aus einer Datenquelle, dem Publisher, und einer Datensenke, die als Subscriber bezeichnet wird. Ein Message-Broker sorgt für die Entkoppelung und Steuerung der Kommunikation. Somit bietet MQTT viele Vorteile für den Einsatz in der M2M-Kommunikation und im Internet der Dinge. Ein grosser Nachteil ist jedoch die Unsicherheit der Kommunikation über MQTT, ähnlich unsicher wie beispielsweise bei HTTP. Publisher und Subscriber kommunizieren mit dem Broker ohne Verschlüsselung und Authentifizierung. Ein Angreifer kann so nicht nur mitlesen, sondern auch die Daten manipulieren. Das ist für die meisten Anwendungen in Industrie, Automotive, Smart City oder Energieversorgung nicht akzeptabel. Der vorliegende Vortrag zeigt Wege auf, mit einfachen Methoden und Infrastrukturmassnahmen, robuste und sichere Kommunikation über MQTT zu ermöglichen. Anhand konkreter Anwendungsbeispiele wird die Wirksamkeit der entwickelten Lösungen nachgewiesen.
17:00 - 17:40
Hardware Hacking Techniques at the example of a Cloud Based Smart Camera Wilfried Kirsch, softScheck  
Mehr und mehr Menschen stellen sich Internet of Things Geräte ins Haus, ohne dabei genau zu wissen, was unter der Haube dieser Geräte wirklich passiert. Gerade bei smarten Assistenten wie Amazon Alexa stellen manche Nutzer, oft die Frage ob Alexa wirklich nur beim Trigger Wort die Befehle zu Amazon überträgt. Fans des Gerätes halten oft dagegen, dass dies doch im Netzwerk Verkehr sichtbar wäre. Tatsächlich ist der Verkehr aber Transport verschlüsselt. Selbst technisch versierte können daher nur sehen, dass Alexa Echo Pakete schickt, nicht aber deren Inhalt. Alexa könnte nun Gespräche heimlich aufzeichnen und diese dann unauffällig zusammen mit dem vom Nutzer nach dem Trigger Wort gesprochenen Befehl mitschicken. Einzig durch eine ungewöhnlich hohe Anzahl an Paketen könnte dies auffallen. Wenn Nutzer an die Interna ihrer IoT Geräte kommen würden, könnten sie nachvollziehen, was wirklich geschieht. Dies wird einem vom Hersteller aber meist sehr schwer gemacht. Es folgen daher einige Techniken wie man dennoch oft über die Hardware an die Geräte kommt. Es gibt eine Fülle weiterer Techniken, um Geräte zu knacken. Mittels den Seitenkanal Angriffen Simple Power Analysis (SPA) und Differential Power Analysis (DPA), können durch Messen des verbrauchten Stroms Rückschlüsse auf die Operationen gezogen werden, welches wiederrum dazu verwendet werden kann, um eingesetzt Kryptografische Schlüssel zu extrahieren. Durch Differential Fault Analysis kann ähnliches erreicht werden, in dem durch Spannungsspitzen, extreme Temperaturen oder Laserbeschuss der Chip zu fehlerhafte Berechnungen anstellt. Durch Einfrieren des Arbeitsspeichers auf Temperaturen von unter -200 Grad, verliert dieser seinen Inhalt nach einer Trennung vom Strom nicht und kann so in ein neues Gerät eingebaut und ausgelesen werden. All diese Techniken benötigen allerdings teureres Equipment. An einer IoT Smart Camera zeigen und erklären wir daher Techniken, die kostengünstig von jedermann angewendet werden können. So löteten wir an die Kamera um diese mit einem Computer verbinden zu können. Den Bootprozess störten wir mit Pin2Pwn. Hier wird mit einer Nadel einer der Kanäle des Flash Bausteins überbrückt, was zur Folge hat, dass die angeforderte Datei nicht gelesen werden kann. Durch den so produzierten Fehler, startet die Bootloader Shell, in der wir ein maniupuliertes Boot Image ausführten, welches uns Root-Rechte bescherte. Was nach einem erfolgreichen Rooten getan werden sollte und wie Hersteller Angriffe dieser Art erschweren werden können, wird Teil der Präsentation sein.
17:40 - 17:40
Get-Together in der Ausstellung
10:20 - 17:40
Session 2 IoT Best Practices
10:20 - 11:00
Assistenzsysteme in der Smart Factory – Technologien und ihr wirtschaftlicher Mehrwert Dr. Christian Magnus, nexpro.digital  
Assistenzsysteme spielen eine entscheidende Rolle bei dem Umgang mit zunehmend komplexen Anlagen und der Ausführung vielseitiger Tätigkeiten in Produktionsumgebungen. Sowohl im Produktionsalltag als auch in Lernszenarien können sie dabei unterstützen, Stillstandszeiten zu reduzieren und Fehler zu vermeiden. In diesem Beitrag wird erläutert, wie beispielsweise Smart Devices, Pick-by-Light Technologien und projektionsbasierte Verfahren Mitarbeiter bei dem Anlernen neuer Aufgaben, der Etablierung von standardisierten Vorgehensweisen, der Ausführung komplexer Tätigkeiten, der Ausführung fachfremder Tätigkeiten oder der Remote Kollaboration unterstützen können. Insbesondere bei der variantenreichen Produktion müssen Schnittstellen zu diversen Planungstools der Unternehmen geschaffen werden. Um dabei eine durchgängige Datenstruktur zu gewährleisten, wird exemplarisch AutomationML eingesetzt. Neben der Vorstellung verschiedener Praxisbeispiele kann ebenso eine Vorgehensweise zur Bestimmung des wirtschaftlichen Mehrwerts am Beispiel einer Remote Kollaborations-Lösung dargestellt werden.
11:00 - 11:40
IoT zum Anfassen – Von der Maschine in die Cloud Florian Bader, AIT; Tim Steiner, AIT  
IoT am Beispiel von Maschinenbau muss nicht kompliziert sein. Viele Maschinen liefern heute schon Daten über standardisierte Schnittstellen. Doch wie kommen die Daten von der Maschine in die Cloud und welche Vor- und Nachteile bringt dies mit sich? Anhand von praxisnahen Beispielen wird mit Hilfe von Azure IoT Central und Azure IoT Edge gezeigt, wie Maschinen einfach an die Cloud angebunden werden können und welche Möglichkeiten es heute schon gibt. Einmal in der Cloud angekommen, lernen Sie wie sich Maschinendaten visualisieren, auswerten und überwachen lassen. Durch Werkzeuge wie Machine Learning lassen sich dabei aus den Daten auch weitere Informationen ableiten. Zusätzlich wird gezeigt, wie Sie Maschinen bequem aus der Cloud steuern und wie durch den Einsatz von Edge Computing kritische Module von der Cloud direkt auf die Maschine übertragen und dort ausgeführt werden können.
11:40 - 12:20
Wie datengetriebenes IoT-Abfallmanagement die Servicequalität der Abfallentsorger verbessert und ihre täglichen Abläufe effizienter gestaltet Moritz Pfeiffer, Binando
12:20 - 13:00
AR meets SPS – Ein echtzeitfähiges Mixed Reality Assistenzsystem für Wartungspersonal Prof. Dr. Dirk Reichelt, Hochschule für Technik und Wirtschaft Dresden  
Digitale Assistenzsysteme müssen Instandhaltern und Wartungspersonal für den effizienten Wartungseinsatz eine Vielzahl von Informationen in Echtzeit zur Verfügung stellen. So benötigt der Instandhalter u.a. Zugriff auf die Informationen von Sensoren und Aktoren in der Anlage, aktuelle Dokumente und Zeichnungen oder die Dokumentation von abgeschlossenen Wartungsaufträgen. An der HTW Dresden wurden verschiedene Demonstratoren entwickelt, in denen der Einsatz von Augmented Reality (AR) Lösungen für den Einsatz in Wartungsszenarien präsentiert wird. Im Vortrag wird die grundlegende IT-Architektur der Lösungen zur Datenintegration aus verschiedene Quellen in der Fertigung sowie die Integration dieser Daten in Augumted Reality Anwendungen vorgestellt. Während bisherige AR-Lösungen primär statischen Content und Information aus betrieblichen Informationssystemen (wie z.B. den Wartungsplan) visualisieren, lag der Entwicklungsfokus auf einer flexiblen Integration von Echtzeitdaten aus den Steuerungen der Anlage. Wir zeigen an einem Beispiel, wie der Betriebszustand der verschiedenen Prozessmodule in der Smart Factory der HTW Dresden erfasst und in einer HoloLens-Anwendung dargestellt werden. Die Statusleuchte je Modul wird dabei in Echtzeit und basierend auf den Informationen aus den Steuerungen (SPS) aktualisiert. Bei Annäherung an die Module werden zusätzlich die Zustände der installierten Sensoren und Aktoren in der HoloLens eingeblendet. Am Beispiel eines Teilmoduls der Anlage demonstrieren wir die Integration von Informationen aus den Konstruktionszeichnungen und Daten der Steuerung in der HoloLens-Anwendung am Beispiel eines Tunnelofens. In der Mixed Reality Anwendung auf der HoloLens werden die CAD-Daten der Modulkomponenten in die realen Umgebung projiziert. Über die Kopplung mit Informationen aus der Steuerung (hier Siemens S7) des Moduls werden einzelne Komponenten hervorgehoben und ihr Betriebszustand visualisiert. Die so geschaffene Infrastruktur bietet die Basis für für die Entwicklung einer Vierlzahl von echtzeitfähigen Mixed Reality Assistenzsysteme für Wartungspersonal.
13:00 - 14:20
Mittagspause, Ausstellung & Networking
14:20 - 15:00
Wie man 50.000 Geräte gegen ihren Willen vernetzt Henning Böger, MaibornWolff; Klaus Scheitterer, MaibornWolff  
Geräte wollen oft nicht so funktionieren, wie es die Hochglanzlösungen der großen Cloud-Provider versprechen: Legacy-Protokolle, unerwartete Hardware-Constraints und unterschiedliche Gerätegenerationen lassen die so schön beworbenen Fünf-Minuten-Lösungen in weite Ferne rücken. Die beiden IT-Architekten Henning Böger und Klaus Scheitterer zeigen kennen das aus ihren aktuellen Projekten. Von einem möchten sie in diesem Vortrag berichten: Sie zeigen, was man alles lernt, wenn man für ganz spezielle Geräte ein individuelles IoT-Backend basierend auf Open-Source-Komponenten baut und betreibt. Der Vortrag ist ein anonymisierter Projektbericht. Er setzt Grundwissen voraus darin, wie ein IoT System aufgebaut ist und welche Rolle typische Bausteine (z.B. Kubernetes, Kafka, Akka, MQTT) im System übernehmen. Die Zuhörer lernen in diesem Vortrag aus der Praxis mehr über - Fallstricke, die es bei der Anbindung von Geräten an ein IoT-System auftreten (inbesondere von Bestandsgeräten) - Erfahrungen beim Aufbau des IoT Backends im Betrieb sowie bei technischen Spezialthemen (z.B. Parallelität, Clustering, Back Pressure Handling)
15:00 - 15:40
IoT in der Praxis Wolfgang Esch, WEPTECH elektronik  
Die technischen Herausforderungen und Möglichkeiten in Verbindung mit den Hürden in der Umsetzung und der wirtschaftlichen Betrachtung von IoT Anwendungen werden anhand von 3 Beispeilen vorgestellt
15:40 - 16:20
Kaffeepause, Ausstellung & Networking
16:20 - 17:00
Wie realisiert man eine vernetzte Lösung? Verfahrensstandards und Best Practices für Ihr IoT-Projekt Laurenz Kirchner, mm1 Consulting & Managment  
Das Internet der Dinge ist ein unumkehrbarer Megatrend, und für Produktanbieter wird die Einführung von digital vernetzten Lösungen ein wichtiger Bestandteil ihrer Digitalen Transformation. In den meisten Fällen werden Unternehmen dabei auf IoT-Plattformen von externen Vendoren zurückgreifen, da die Komplexität mit Eigenmitteln kaum beherrschbar ist. Beim Einsatz von IoT Plattformen ist es entscheidend, den passenden Grad der eigenen Wertschöpfung zu bestimmen - und zwar für jede Ebene des so-genannten IoT Stack. Der Weg zur IoT-Lösung wird so zum neuen ‚Make or Buy‘, das heißt zur strategischen Frage nach der optimalen digitalen Wert-schöpfungstiefe. Mit der richtigen Methodik lassen sich mit wenigen zielgerichteten Schritten die Anforderungen definieren, die richtigen Entscheidungen treffen und passende Angebote finden. Im Vortrag zeigt Laurenz Kirchner, Managing Partner bei mm1, wie Unternehmen den Weg zur vernetzen Lösung gestaltet haben und welche Voraussetzungen dafür geschaffen werden mussten. Er geht insbesondere auf standardisierte Module in der Projektierung von vernetzten Lösungen ein, wie z.B. Industrial Design Thinking, Funkauswahl, IoT Plattformauswahl sowie den „IoT Project Explorer“ des Industrial Internet Consortium. Die Teilnehmer erfahren praxisorientiert, wie sie den Konzeptions- und Umsetzungsprozess für ihre vernetzte Lösung gestalten können. Eine vernetzte Lösung ist alleine kaum zu machen Um ein entsprechendes Angebot machen oder nutzen zu können, müssen Unternehmen die Vernetzung ‚vom Sensor bis zur Cloud‘, d.h. über den gesamten sogenannten IoT Stack hinweg bewältigen. Die meisten Unternehmen verfügen aber weder über die Erfahrung noch über die Fähigkeiten, ein IoT-Angebot ganz eigenständig aufzubauen. Dementsprechend suchen die Unternehmen bei der Projektierung und Umsetzung Hilfe bei Vendoren von IoT-Komponenten. Den Herausforderungen bei der Auswahl einer IoT-Plattform und bei der Einführung einer vernetzten Lösung begegnet Laurenz Kirchner regelmäßig in der Projektarbeit; im Vortrag sind Erfahrungen von IoT Verantwortlichen aus fertigenden Unternehmen eingeflossen, die in einer mm1-Studie zum Thema befragt wurden. Best practice auf dem Weg zur vernetzten Lösung Die strategische Bedeutung sowie die unterschiedlichen Einsatzszenarien und deren spezifische Anforderungen erfordern ein individuelles Vorgehen beim Weg zur vernetzten Lösung. Laurenz Kirchner erklärt in seinem Vortrag ein Vorgehen als Best Practice. Der Weg zur vernetzten Lösung führt zwangsläufig über die Nutzung von Plattformangeboten. Mit einer bewährten Methodik kommt man als Unternehmen in drei Schritten zur richtigen IoT-Plattform. Diese Schritte zeichnen sich durch die Einbettung der Auswahlentscheidung in die gesamte IoT-Strategie sowie durch die Mitarbeit aller Funktionen aus. Damit können Unternehmen in kurz getakteten Pro-jektphasen Ihre Anforderungen an eine vernetzte Lösung formulieren und mit den passenden Anbietern die Umsetzung starten.
17:00 - 17:40
Open Source als Innovator und Treiber von De-Facto Standards für das Internet der Dinge Heinz Wilming, akquinet  
Die Anzahl vernetzter Geräte nimmt rasant zu. Für die Verwaltung und Integration wurden in den letzten Jahren zahlreiche konkurrierende und teils proprietäre IoT-Plattformen angeboten. Einen durchgängigen Standard gibt es jedoch noch nicht. Mit Community Projekten wie der Eclipse IoT wird gemeinschaftlich an Technologien und offenen Implementierungen gearbeitet. Welche Vorteile sich daraus ergeben, möchten wir ihnen anhand unserer Erfahrung im Bereich Industrie 4.0 aufzeigen. Anhand unserer Projekte zeigen wir ihnen unterschiedliche Architekturen und wollen insbesondere auf Best Practices und Standards in der M2M Kommunikation eingehen.
17:40 - 17:40
Get-Together in der Ausstellung

Parallele Sessions

10:20 - 14:20
Session 3 Methoden & Tools
10:20 - 11:00
IoT Reloaded – Dezentrale, kollaborative IoT Systeme Dr. Markus Sauer, Siemens; Jochen Nickles, Siemens  
Aktuelle IoT Systeme sind zumeist komplett hierarchisch organisiert, d.h. Sensordaten werden über Gateways, Edge Devices, etc. in die Cloud übertragen. Auf Basis dieser statisch konfigurierten und administrierten Systeme werden dann IoT Applikationen mit Daten aus der Cloud versorgt. Die rasante Technologieentwicklung auf Software- als auch Hardwareseite und deren Verbreitung in der Industrie führen dazu, dass die zu übertragenden Datenmengen signifikant ansteigen und auch die Fähigkeiten der kleinsten Komponenten (Sensoren, Gateways, etc.) immer mächtiger und komplexer werden. Dadurch entsteht einerseits der Bedarf nach einer Datenverarbeitung vor Ort, welcher typischerweise in den Themenfeldern Edge und Fog Computing betrachtet wird. Andererseits entsteht das Potential diese Fähigkeiten für neue Lösungen zu nutzen. Mit diesem Potential, den Anforderungen und den notwendigen Technologien beschäftigt sich Collaborative IoT, welches das richtungsgebende Thema für diesen Beitrag ist. Im Rahmen des Beitrages werden anhand des Collaborative IoT Frameworks Coaty (https://coaty.io) dezentral angelegte, kollaborative IoT Systeme vorgestellt. Mit Hilfe von industriellen Use Cases werden die Anforderungen, mögliche Umsetzungen und die Potentiale gezeigt. Coaty ist ein Open-Source-Framework, mit dem kollaborative IoT-Anwendungen auf autonome, verteilte und dezentrale Art und Weise erstellt werden können. Coaty ermöglicht dabei das direkte Zusammenspiel zwischen autonom agierenden IoT-Gera?ten, Personen und Diensten in hochdynamischen Prosumer-Szenarien. Diese können aus Applikationssicht jedes Level und jeden Mix von zentral als auch dezentralen Funktionalitäten realisieren. Coaty wurde als ein datenzentrisches, event-basiertes Konzept entworfen, welches auf Basis einer Pub/Sub Technologie (aktuell MQTT) die Vorteile einer Pub/Sub Kommunikation mit denen von Request/Response kombiniert. Damit wird die lose Kopplung der Systemteilnehmer und eine Any-to-Any-Kommunikation realisiert, die für zuvor beschriebene Szenarien notwendig sind. Coaty ist Teil einer Infrastruktur, die ihm Rahmen des Themenkomplexes Collaborative IoT entwickelt wird. Coaty ermöglicht, dass Teilsysteme des IoT Systems, deren Zusammenspiel vorher nicht detailliert geplant wurde, spontan und ad hoc zusammenarbeiten. Collaborative IoT geht weit über das hinaus, was Blockchain als Technologie mit Dezentralisierung, d.h. System ohne Intermediär, betrachtet. Collaborative IoT betrachtet neben dem Teilaspekt der dezentralen Vertrauensbildung auch die Aspekte der dezentralen, verteilten Kommunikation, und der Realisierung von System Autonomie Funktionen auf Basis einzelner Komponenten Fähigkeiten. Eine konsequente Umsetzung des Ansatzes ermöglicht eine neue Art von hochdynamischen, selbst-organisierenden IoT Ecosystemen, die wiederum die Grundlage für neue Geschäftsmodelle bilden.
11:00 - 11:40
Digitale Zwillinge: Ein strategischer Blick auf den Kern zukünftiger digitaler Geschäftsmodelle Dr. Mathias Döbele, 247FactoryNet  
Digitale Zwillinge sind heute in vieler Munde. Dabei ist festzustellen, dass verschiedene Gesprächspartner selten eine deckungsgleiche Sicht auf das Thema haben und dadurch häufig aneinander vorbei diskutieren. Aufgrund der Neuheit des Themas und den verschiedenen Entwicklungsströmen, die sich aus unterschiedlichen Richtungen und mit unterschiedlichen Zielsetzungen dem Aufbau von digitalen Zwillingen annähern ist das auch nicht verwunderlich. Dennoch: Entscheidend an dem ganzen Thema ist doch die Frage warum überhaupt digitale Zwillinge entwickelt werden sollen, und welche Fähigkeiten sie heute, morgen und auch übermorgen haben müssen. Diese Frage ist zunächst aus einer unternehmerischen Perspektive zu beantworten, denn letztendlich müssen Entwicklungsinvestitionen immer entweder zu Umsatzsteigerungen oder Kostensenkungen führen. Dabei ist es wichtig auch ein etwas längeren Zeitraum in den Überlegungen zu berücksichtigen, denn es geht ja schließlich um den langfristigen Aufbau eines digitalen Wissensschatzes, der zukünftige Geschäftsmodelle dominieren und ein entscheidender Wettbewerbsvorteil sein wird. Leider ist im hochinnovativen und dynamischen Umfeld der digitalen Transformation vieles noch nicht klar vorhersehbar. Daher müssen zahlreiche technische Entwicklungen mit Unsicherheiten leben bzw., noch nicht klar definierbare Anforderungen müssen erkannt werden, um sich die Zukunft nicht durch falsch umgesetzte Technik zu verbauen. Der Vortrag zeigt Anforderungen an digitale Zwillinge aus einer unternehmerisch / strategischen Perspektive auf und bricht sie auf die technische Umsetzung herunter. Dazu wird eine Beschreibungstechnologie vorgestellt, die zurzeit von der 247FactoryNet GmbH entwickelt wird und die eine Realisierung digitaler Zwillinge mit einer maximalen Flexibilität bzgl. zukünftiger Anpassungen und Erweiterungen zulässt. Anhand eines Kriterienkatalogs, der sich aus unseren Kundengesprächen ergeben hat, wird aufgezeigt, wie Unternehmen Digitale Zwillinge für verschiedene „reale Dinge“ definieren können und ihnen eine passende strategische Bedeutsamkeit beimessen können.
11:40 - 12:20
Resilienz vernetzter Systeme Prof. Dr. Eva Brucherseifer, Hochschule Darmstadt  
Mit Resilienz wird die Widerstandsfähigkeit von Systemen gegen Fehler, Störungen und Bedrohungen bezeichnet. In zunehmend komplexen und vernetzten Systemen wie im Bereich Industrie 4.0, Internet der Dinge und Versorgungsinfrastrukturen gewinnt dieser Aspekt an Bedeutung, da die Absicherung von Einzelsystemen im Bereich Security und Safety alleine nicht mehr ausreicht und gerade durch die Interaktion von Systemen inkl. Legacy-Systemen untereinander sowie mit den Nutzern und Betreibern neue Angriffs- und Fehlerszenarien entstehen. Gleichzeitig bieten aber gerade die Vernetzung, der Ausbau von Sensorsysteme und Cloud-Implementierungen neue Ansätze zur Erhöhung der Resilienz der Gesamtsysteme. In diesem Kontext hat sich der Begriff des Resilience Engineerings entwickelt, eine Disziplin, in der gezielt Vorgehensweisen und Frameworks zur Modellierung der Systeme und zur Erhöhung der Systemresilienz erarbeitet werden. Zielsetzung ist die Bewertung und Erhöhung von Sicherheit, Zuverlässigkeit und Anpassungs- bzw. Regenerationsfähigkeit und Flexibilität bezüglich übermäßiger bzw. disruptiver Belastungen können. Dieser Beitrag gibt eine Einführung in den Begriff der Resilienz und den aktuellen Stand des Resilience Engineerings und der dazu notwendigen Modellierung von Systemen. Gerade der Einsatz künstlicher Intelligenz bietet Möglichkeiten zur Erhöhung der Resilienz von vernetzten Systemen mit Beispielen wie Predictive Maintenance und Anomaliedetektion. Digital Twins wiederum ermöglichen eine verbesserte Modellierung des Systemverhaltens und ermöglichen zusammen mit Echtzeitdaten Einblicke in das Systemverhalten im Normalzstand und im Fehler-/Angriffsfall. So können Optimierungsansätze gerade auch in Hinblick auf die Resilienz entwickelt werden. Anhand verschiedener Beispiele aus den Bereichen Industrie, Netzwerke und kritische Infrastrukturen werden die verschiedenen Varianten dieser Lösungsansätze beleuchtet und ihre Übertragbarkeit auf industrielle Anwendungsfälle diskutiert.
12:20 - 13:00
Herausforderungen bei der Umsetzung von Predictive Maintenance Stefan Angersbach, siasys  
In der Industrie 4.0 gehört Predictive Maintenance (dt. vorausschauende Wartung) zum elementaren Bestandteil. Da der Begriff nicht eindeutig definiert ist, findet man unter den Anbieter von Predictive Maintenance Lösungen verschiedene Angebote. Manche Anbieter von Predictive Maintenance Lösungen sprechen beispielsweise von Predictive Maintenance, führen aber lediglich ein erweitertes Condition Monitoring (dt. Zustandsüberwachung) durch. Im Unterschied zu Predictive Maintenance erfasst das Condition Monitoring aktuelle Zustände der Maschinen, meist über Sensordaten, und versendet Alarmsignale, falls die Zustände vordefinierte Schwellwerte überschreiten. Echte Predictive Maintenance Lösungen beinhalten das Vorhersagen von Maschinenausfällen, umgesetzt durch Maschine Learning Verfahren. Eine schwerwiegende Eigenschaft in den Daten, die das Lösen der gelisteten Probleme vor eine große Herausforderung stellt, liegt in der Rarität des zu vorhersagenden Ereignisses. Damit Machine Learning Algorithmen die grundlegende Charakteristik der Daten gut erfassen können, sollte das zu vorhersagende Ereignis auch oft genug beobachtet worden und in den Daten enthalten sein. Da sich die Fertigungsmaschine die meiste Zeit im funktionierenden Betrieb befindet und der Ausfall der Maschine in gesamtheitlicher Zeitbetrachtung nur einen geringen Teil ausmacht, liegt hier allerdings ein sogenanntes Rare Event (dt. seltenes Ereigniss) vor. Rare Events können nicht mit der standardmäßigen Vorgehensweise der Machine Learning Algorithmen gelöst werden. Das Lösen von Problemstellung mithilfe von Machine Learning Algorithmen erfordert bei Rare Events ein verstärktes Aufarbeiten der Daten. Erfolgversprechende Ansätze liegen beim im Vorfeld durchgeführten Target und Feature Engineering (dt. Zielvariablen- und Merkmalskonstrunktion). Hat man es geschafft, einen Machine Learning Algorithmus erfolgreich anhand der Daten anzutrainieren, so besteht eine weitere Schwierigkeit darin, den Algorithmus in den Produktionsverlauf einzubinden. Hierfür ist ein Plan for deployment notwendig, welcher auch die Überwachung des Prognose-Algorithmus vorsieht.
13:00 - 14:20
Mittagspause, Ausstellung & Networking
10:20 - 14:20
Session 5 Retrofit
10:20 - 11:00
Retrofit mit IoT – Daten von der (alten) Maschine in die Cloud bringen Dr. Stefan Hennig, Elco Industrie Automation; Tom Gerhardt, Elco Industrie Automation  
Im Zeitalter von IoT und Industrie 4.0 sprechen alle über die vielseitigen Möglichkeiten, die Machine Learning, Predictive Maintenance o. ä. bieten. Mit neuen Maschinen bzw. Steuerungen, die z. B. über OPC UA oder integrierte Webserver verfügen, ist es leicht, an die dafür notwendigen Daten heranzukommen und solche Anwendungen zu realisieren. Doch was ist mit den vielen alten Maschinen im Feld, die nur eine alte oder gar keine SPS enthalten? Dieser Vortrag zeigt, wie auch Daten aus alten Maschinen gewonnen werden können, um Sie in der Cloud oder Edge zu sammeln und auch alte Maschinen fit für die Industrie 4.0 zu machen. Der Vortrag zeigt beispielhafte Ziele und Anwendungen auf, die mit dem Retrofit alter Maschinen zur Gewinnung von Daten und Informationen erreicht werden können. Des Weiteren wird darüber berichtet, welche Vorüberlegungen dafür notwendig sind, um an die relevanten Daten und Informationen der Maschinen heranzukommen. Schließlich wird anhand eines Beispiels erläutert wie Retrofit mit passender IoT-Hardware und -Software von Elco einfach umgesetzt werden kann.
11:00 - 11:40
Bestandsmaschinen in Industrie 4.0 integrieren Dr. Christian Henke, Fraunhofer IEM  
Wie lassen sich bestehende Maschinen und Anlagen kosteneffizient vernetzen und durch neu gewonnene Informationen Produktionsprozesse und Produktqualität verbessern? Diesen Fragen widmet sich der Praxisvortrag des Fraunhofer IEM und gibt Einblick in eine bereits heute marktfähige Technologie, mit der produzierende Unternehmen nicht-intelligente Bestandsanlagen fit für Industrie 4.0 machen können. Die Produktivität und Wirtschaftlichkeit von Maschinen und Anlagen hängt maßgeblich von deren Verfügbarkeit ab. Transparenz und Analysefunktionen sind ein elementarer Faktor, um drohende Maschinenstillstände frühzeitig zu erkennen und Ausfallzeiten zu vermeiden. Gebraucht werden Digitalisierungslösungen, die sich vor allem für Bestandsmaschinen lokal durch das Bedien- und Wartungspersonal einfach und schnell anwenden lassen. Zusammen mit dem mittelständischen Unternehmen MSF-Vathauer Antriebstechnik entwickelte das Fraunhofer IEM einen Lösungsansatz, der als Smart Active Manufacturing Modul (SAM) mit dem 3. Platz beim Automation Award 2018 ausgezeichnet wurde. Die Lösung ermöglicht es nach einmaliger Installation, mittels mobiler Endgeräte über eine drahtlose Verbindung dezentrale Feldkomponenten auszulesen. Durch ein webserverbasiertes Monitoring können die Prozessdaten in Echtzeit überwacht und ausgewertet werden. Einem künftigen Maschinenausfall wird gegengesteuert und die Produktqualität gesichert. Durch das SAM wird folglich eine Retrofitting-Lösung angeboten. Alte Maschinen und Geräte, wie bspw. CNC-Maschinen, Pumpen, Klimasteuerungen, werden in die Industrie 4.0 Welt integriert. An diesen Geräten werden z.B. serielle Schnittstellen (RS232), CAN-Bus-Schnittstellen und Bluetooth unterstützt. Zudem können die Feldgeräte über einen Funkadapter grundsätzlich auch drahtlos angebunden werden, sodass Geräte auch an schwer zugänglichen Orten gut einbindbar sind. Die Datenaufzeichnung auf dem Webserver, der durch SAM aufgebaut wird, erfolgt in hoher Qualität und ist plattformunabhängig. Zudem sind Maschinenüberwachungen mit Alarmierungsfunktionen ausführbar. Darüber hinaus kann SAM zur kabellosen Parametrisierung von Maschinen genutzt werden sowie zusätzliche Funksensoren einbinden. Die Daten, die verschlüsselt kommuniziert werden, können kundenspezifisch visualisiert und analysiert werden. Ebenso ist die Nutzer- und Rechteverwaltung skalierbar. Eine weitere wichtige Eigenschaft ist die Weiterverarbeitung der Daten in der Cloud, was wiederum durch die Unterstützung der Standardprotokolle MQTT und OPC UA ermöglicht wird. Weitere Vorteile sind die Anbindung an Bibliotheken für bspw. Produkthandbücher sowie Wartungsassistenten. Zudem verfügt SAM über eine autarke Energieversorgung per Akku mit bis zu 16 Stunden Betriebszeit.
11:40 - 12:20
Vom Router zur "Multi-Application"-Plattform Wolfgang Wanner, INSYS MICROELECTRONICS  
Ein Router ist für die Datenübertragung zwischen Maschinen und Leitstellen oder Service-Mitarbeitern zuständig. Diese Zeiten sind vorbei. Denn diese unscheinbaren Geräte sind mittlerweile die Schnittstelle und Datendrehscheibe innerhalb von Produktions- und Servicenetzen. Neben der reinen transparenten Datenübertragung überwachen Router wichtige Anlagenparameter, senden Alarmmeldungen, führen Aktionen aus, beherbergen ganze Steuerungsumgebungen und verbinden viele Akteure - gleichzeitig und dennoch sicher getrennt - miteinander. Die von Routern erfassten Daten werden dabei nicht nur in Leitstellen oder Cloud-Lösungen visualisiert; sie dienen auch als Grundlage z.B. für ein Energie-Monitoring der Maschine oder für die Datenanalyse im Umfeld von KI (Künstlicher Intelligenz) und ML (Machine Learning). Dieser Vortrag zeigt auf, welche Möglichkeiten ein moderner Industrierouter bietet und wie flexibel diese Geräte, zum Teil in Hardware und Software - auf sich verändernde Gegebenheiten reagieren können und damit zum einen ihren Betreibern Schritt-für-Schritt den Weg in IoT-Anwendungen ebnen und andererseits eine zukunftssichere Investition als Basis für neue, datengetriebene Geschäftsmodelle sind.
12:20 - 13:00
Maschinen ein digitales Leben schenken Michael Jacob, AIS Automation Dresden  
„Abgefrackt, aber lebendiger denn je“ könnte die Retrofit reißerisch beschrieben werden. Retrofit ist längst eine gängige Praxis in der Fabrik- und Anlagenautomatisierung um den Lebenszyklus einer bestehenden Maschine wertsteigernd zu verlängern. Mit dem Einbau von neuen Steuerungen und Komponenten gepaart mit passender Software wird Maschinen ein zweites Leben ermöglicht. Um jene Maschinen nun für das Internet der Dinge fit zu machen und ihnen ein digitales Leben zu schenken, bedarf es zusätzlicher Maßnahmen. Für eine ganzheitliche Digitalisierung ist einerseits eine smarte Datenintegration mittels IoT Gateway oder Integration Framework notwendig um die Vielfalt an Schnittstellen, Protokollen und Softwareanforderungen abzudecken. Anderseits bietet eine cloud-basierte IoT-Plattform, die sich an die bestehende IT-Landschaft andockt Mehrwerte in vielerlei Hinsicht: Anlagen- und Maschinendaten sowie Geschäftsprozesse lassen sich digitalisieren, neue Geschäftsmodelle etablieren und dem Fachkräftemangel effektiv begegnen. Anhand von Praxisbeispielen wird aufgezeigt, wie die AIS Automation Retrofit agil, sicher und Use Case bezogen umsetzt.
13:00 - 14:20
Mittagspause, Ausstellung & Networking

Parallele Sessions

14:20 - 17:40
Session 4 KI/Maschinelles Lernen
14:20 - 15:00
Entwicklung von Use Cases für Künstliche Intelligenz René Phan, T-Systems Multimedia Solutions  
In nahezu allen Medien gewinnt das Thema der Künstlichen Intelligenz (KI) an Bedeutung. Dabei assoziieren viele nur die Erfolgsgeschichten von großen Unternehmen wie Google, Amazon oder Microsoft. Einsatzszenarien für KI im eigenen Unternehmen sind häufig nur schwer vorstellbar. In diesem Vortrag wird ein 8-stufiges Vorgehen präsentiert und anhand eines Beispiels veranschaulicht, wie Anwendungsfälle für Künstliche Intelligenz im eigenen Unternehmen ausfindig gemacht werden und beschrieben werden können.
15:00 - 15:40
AI on the Edge – Wie Geräte smarter werden Thomas Tomow, Devoteam | Alegri  
Mit den Unmengen an Daten, die IoT Devices liefern. Können wir schon jetzt sehr viel über unsere Umwelt erfahren. Parallel entwickelt sich gerade eine neue technologische Ära - rund um AI: Machine learning Services. So ist es naheliegend diese beiden Technologiefelder mit einander zu verkoppeln und weitere, interessante Szenarien zu ermöglichen. Ich möchte daher die neuen Möglichkeiten und Einsatzszenarien aufzeigen und anhand eines Live Showcases demonstrieren, wie ML "on the Edge" eingesetzt werden kann. Dabei gehe ich auf Technologien wie Cognitive Services (Microsoft Azure Cloud), Container und IoT Edge ein und erläutere das technische Vorgehen. Am Ende meiner Vorstellung verstehen die Teilnehmer die Potentiale sowie die Herausforderungen und bekommen die ersten Einstiegspunkte für eigene Szenarien mit an die Hand. Der Teilnehmer benötigt keine tiefgreifenden Programmierkenntnis, er sollte allerdings einige Kenntnisse zu Cloud-Technologien mitbringen.
15:40 - 16:20
Kaffeepause, Ausstellung & Networking
16:20 - 17:00
A.I and Machine Learning Driven FIrewall Protection in the Environment of Cloud, IOT, Sensor Jean Pereira, Secbiz IT Secuirty  
We do a Live-Hack in two different Enviroments once with a general Firewall and once with A.I machine Learning driven Firewall so everybody can see the difference.Cyber criminals are smarter and more dangerous than ever before, adopting automated and scripted attacks that increase their speed and scale. With the volume, velocity, and sophistication of today’s global threat landscape, we must be able to respond in real time at machine speed to effectively counter these aggressive attacks. Machine learning and artificial intelligence can help in this fight.
17:00 - 17:40
Mit Automated Machine Learning die Anwendung von KI demokratisieren Tobias Gaukstern, Weidmüller Gruppe  
Künstliche Intelligenz (KI) und Machine Learning (ML) eröffnen den Maschinenbauern und -betreibern neue Möglichkeiten Maschinendaten zu analysieren. Die Erkenntnisse aus der Datenanalyse werden genutzt, um z.B. Maschinenausfälle zu vermeiden, den Maschinenbetrieb zu optimieren, die Produktqualität zu verbessern und völlig neue Geschäftsmodelle zu realisieren. Allerdings erfordert der Einsatz der Methoden und Verfahren der KI heute Spezialwissen im Bereich Data Science, über das Maschinenbauer / -betreiber in der Regel nicht verfügen. Dadurch wird die schnelle Ausbreitung und Anwendung von KI in der Industrie gehemmt. Das fehlende Wissen verhindert die einfache Anwendung von Künstlicher Intelligenz. Deswegen übernehmen die Datenanalyse und Modellbildung vornehmlich heute noch Data Scientists. Ihr Expertenwissen ist heute überwiegend notwendig, um die Methoden der Künstlichen Intelligenz oder des maschinellen Lernens auf die Daten anzuwenden und Modelle zu entwickeln, die zum Beispiel Anomalien erkennen oder Fehler vorhersagen. Die zentrale Frage lautet also, wie die Methoden von Künstlicher Intelligenz beziehungsweise des maschinellen Lernens in ihrer industriellen Anwendung derart handhabbar gemacht werden können, dass Maschinenbauer und -betreiber eigenständig Machine-Learning-Modelle erzeugen können. Es wird ein völlig neuer Ansatz vorgestellt mit dem Domänenexperten eigenständig Modelle erzeugen und weiterentwickeln können – ohne selbst Data Scientist zu sein. Der technologische Ansatz wird durch den Term Automated Machine Learning beschreiben. Dieser bringt zum Ausdruck, dass Modelle weitestgehend automatisch erzeugt werden können. Erste Anwendungen dieser Art existieren derzeit bereits in den Bereichen Fintech, Banking und Marketing – aber bislang noch nicht im Maschinen- und Anlagenbau. Das liegt unter anderem daran, dass die bereits existierenden Lösungen immer noch tiefgreifende Expertise im Bereich Künstliche Intelligenz und Machine-Learning erfordern und häufig nicht auf Zeitreihen ausgelegt sind. Ferner bieten diese Lösungen in der Regel keine Möglichkeit zur Berücksichtigung des Domänenwissens. Gerade aber das Wissen über das Maschinenverhalten hat sich als besonders wertvoll bei der Entwicklung von Machine-Learning-Modellen erwiesen. Der Beitrag zeigt daher wie die Domänenexperten ihr Wissen mit dem Automated-Machine-Learning-Ansatz verknüpfen können. Dazu wird gezeigt wie auf Basis des vorhandenen Prozess- und Maschinenwissens einfach Feature kreiert und Zeitbereiche in den Rohdaten als Fehlverhalten oder Normalverhalten markiert werden können, die dann beide die Grundlage für den automatisierten Modellbildungsprozess darstellen. Der beschriebene Ansatz wird anhand eines konkreten Praxisbeispiels vorgestellt, wobei demonstriert wird, wie innerhalb kürzester Zeit Modelle erzeugt werden können. Abschließend wird diskutiert inwieweit der Auto-ML dazu beiträgt KI / ML zu Demokratisieren.
17:40 - 17:40
Get-Together in der Ausstellung
14:20 - 17:40
Session 6 Connectivity
14:20 - 15:00
OPC-UA-Anwendungsentwicklung mit open62541 Frank Meerkötter, basysKom  
OPC UA ist ein Kommunikationsprotokoll und Middleware-Layer, der ursprünglich aus der industriellen Automatisierung stammt und heute in immer mehr Branchen zum Einsatz kommt. Historisch ist OPC UA der Nachfolger zu OPC (classic) mit starken Verbesserungen in den Bereichen Datenmodellierung, Portabilität und Sicherheit. OPC UA wird durch die OPC Foundation entwickelt und standardisiert und ist mit seinem Fokus auf Interoperabilität zwischen Produkten unterschiedlicher Hersteller ein wichtiger Baustein der Industrie 4.0 Story. open62541 ist eine leichtgewichtige, freie Open-Source Implementierung des OPC UA Standards. Die Kernnutzung von open62541 liegt in der Entwicklung von Embedded-Anwendungen, weshalb Flexibilität und Konfigurierbarkeit des Stacks im Vordergrund stehen. Das Projekt hat seinen Ursprung in einem akademischen Kontext, findet aber aktuell immer mehr Einsatz in kommerziellen Anwendungen. Der Vortrag stellt das Projekt open62541 vor, wobei wir auf Stärken und Schwächen eingehen. Der theoretische Teil wird ergänzt durch eine Live-Demonstration die zeigt, wie ein einfacher OPC UA Server entwickelt wird. Der Vortrag legt die Grundlagen für erste eigene Experimente mit dem Stack.
15:00 - 15:40
LPWAN – Geeignete Connectivity für IoT? Srdan Kapor, Telefonica Germany  
LPWAN – Geeignete Connectivity für IoT? Um die Daten vom Gerät zur Cloud zu bringen muss die Datenübertragung sichergestellt werden. Oft handelt es sich bei IoT um Anwendungsfälle bei denen eine Datenübertragung vom Gerät zur Cloud nicht mit drahtgebundener Connectivity übertragen werden kann. Es gibt viele Gründe hierfür. Bei Anwendungsfällen mit beweglichen IoT-Geräten, bei Anwendungen bei denen nicht auf die drahtgebundene Infrastruktur des Gebäudes zugegriffen werden kann o.ä. eignet sich die drahtgebundene Connectivity nicht. Der Mobilfunk ist eine drahtlose Alternative die für solche Anwendungsfälle eine entsprechende Datenübertragung liefert. Eine von den meisten MNOs und MVNOs fast weltweite Mobilfunknetzabdeckung durch Roaming-Vereinbarungen liefert die Konnektivität für IoT Geräte. Die meisten IoT-Anwendungsfälle übertragen verschiedenen Sensordaten die nur geringe Bandbreiten und Datenübertragungen benötigen. Viel wichtiger ist es batteriesparsame Datenübertragungen zu initiieren, z.B. bei beweglichen IoT-Geräten ohne Stromanschluss, und eine hohe Gebäudedurchdringung zu erreichen um z.B. auch die im Keller befindlichen Stromzähler mit Mobilfunk zu erreichen. Diese Anforderungen wurden von proprietären Funknetzanbietern, wie z.B. Sigfox und Lora, früh erkannt die die LPWAN(Low Power Wide Area Networks)-Netze eingeführt haben. Die Mobilfunk-Branche ist mit den durch die 3GPP standardisierten Funkstandards wie NB-IoT und LTE Cat. M nachgezogen. Mit den LPWA-Netzen wird die Basis für die massive Vernetzung einer Vielzahl von IoT-Geräten gesetzt wie sie für die 5G-Netze definiert wurde. Obwohl die LPWA-Technologie erst einmal für IoT-Geräte sinnvoll erscheint, gibt es auch einige Nachteile der gehypten Technologie. Aktuell ist eine Flächendeckung in Deutschland noch nicht erreicht, sodass erst geprüft werden muss ob an einem bestimmten Standort das LPWA-Netz bei dem jeweiligen MNO verfügbar ist oder noch einen 2G/3G/4G Fallback einplanen. Zusätzlich eignet sich NB-IoT mehr für stationäre Anwendungen ohne benötigte Anruffunktion, während LTE Cat. M sich auch für Anruffunktion und bewegliche IoT-Anwendungen eignet. Aktuell gibt es noch keine weltweiten Roaming-Vereinbarungen für diese neuen LPWAN Technologien. Damit müsste die SIM-Karte getauscht werden sobald sich das Gerät in ein anderes Land bewegt, zumindest solange bis es keine kommerziell verfügbaren eSIM-Karten mit vereinfachtem Anbieterwechsel Over-The-Air gibt. Zusammenfassend lässt sich sagen, dass es nicht DIE Technologie für alle IoT-Anwendungsfälle gibt, sondern vielmehr eine anwendungsfallbezogene Betrachtung nötig ist.
15:40 - 16:20
Kaffeepause, Ausstellung & Networking
16:20 - 17:00
Sigfox – Global Wireless Connectivity for the Internet of Things: How 12 Bytes make the difference Patrick Dewit, Sigfox Germany  
Sigfox kann täglich bis zu 140 Nachrichten von Geräten aller Art an IoT-Clouds senden und 4 zurück für Stellbefehle, Parametrierungen oder Funktionsfreischaltungen. Die Payload der Nachrichten darf jedoch nicht größer als 12 Byte sein. Das ist nicht viel, weshalb die Netzanbindung auch sehr energiesparend und preiswert ist. Mit 12 Byte kann man jedoch 256 hoch 12 unterschiedliche Werte darstellen. Das sind 79 Quadrilliarden unterschiedliche Zustände. Zur Verdeutlichung: Eine Quadrialliarde ist eine Zahl mit 27 Nullen – vor dem Komma. Mit dieser Vielfalt sollte sich wirklich jeder Systemzustand hinreichend präzise beschreiben lassen. Selbst komplexe globale GPS-Koordinaten brauchen nur rund 6 Byte, sodass man die überwachten Gegenstände bei Bedarf auch noch exakt lokalisieren kann. Über ein Geodaten-Informationssystem kann man so den Einsatz von mobilen Wartungsmannschaften optimieren oder Warensendungen präzise verfolgen. Welche Lösungswege gibt es aber, beispielsweise diverse Messwerte zu übertragen, wenn diese in der Summe mehr als 12 Byte ausmachen? Eine Datenverarbeitung am Edge kann hier unterstützend zur Seite stehen. So kann man • Daten in eine Tabelle der 79 Quadrilliarden unterschiedliche Zustände eintragen • Messwerte in Bereiche segmentieren und so die Daten auf wenige Meldecluster reduzieren • Messwerte priorisieren, um nur die wichtigsten Daten sofort zu übertragen • Dezimalzahlen in Hexadezimalzahlen umwandeln • Geodaten nicht 1:1 übertagen, sondern logisch reduzieren • Weitere Beispiele im Vortrag Über eine solche Logik hat es Hersteller XY, Hersteller von Wärmegeneratoren, geschafft, das ursprüngliche Datenvolumen von einem Kilobyte auf eine Nachricht von 12 Byte zu komprimieren. Heute erhält er binnen 7 Tagen alle Werte, die für die umfassende Überwachung seiner Wärmegeneratoren mit 20 unterschiedlichen Parameterwerten benötigt werden. Das Beispiel veranschaulicht deutlich, dass 12 Byte enormes Potenzial haben, denn alles, was weniger komplex ist, kann mit Sigfox problemlos umgesetzt werden, wenn man ein wenig in lokale Edge Logik investiert, was insgesamt auch nachhaltiger und kostengünstiger ist, als alle Daten ohne jedwede Edge-Logik in Richtung Cloud zu senden.
17:00 - 17:40
CitySens, Erfahrungen aus dem ersten Projektjahr Heinz Syrzisko, IMST  
CitySens, Erfahrungen aus dem ersten Projektjahr Seit Gründung der LoRaWAN Alliance im März 2015 wurden weltweit Millionen von LoRa Endgeräten in Betrieb genommen. Es existieren laut LoRa Alliance mittlerweile Netze in über 100 Ländern. Diese rasante Verbreitung ist für eine Subgigahertz Funktechnologie, für die weltweit kein harmonisiertes Frequenzband existiert, außerordentlich. Dies liegt sicherlich zum Einen in der Tatsache begründet, dass der LoRaWAN Standard öffentlich verfügbar ist und zum Anderen, dass er die Möglichkeit bietet sogenannte private Netzwerke zu etablieren. D.h. es ist grundsätzlich möglich nicht nur die LoRaWAN Endgeräte zu betreiben, sondern auch die LoRaWAN Netzinfrastruktur. Dabei können solche Netze aus einem Gateway oder mehreren Gateways bestehen. Gerade im kommunalen oder Campus Bereich starten viele Anwender/Betreiber mit einem Gateway und erweitern ihre Netze im Laufe der Zeit. Es bleibt nun die Frage, wie aufwendig ist der Aufbau und Betrieb eines eigenen, privaten LoRaWAN Netzes, bestehend aus mehreren Gateways, überhaupt? Im Jahr 2016 wurde in der Stadt Kamp-Lintfort eine Initiative für eine LoRa basierte Forschungsinfrastruktur initiiert, innerhalb welcher dann im Sommer 2018 das vom Land NRW und der EU geförderte Projekt CitySens "Sichere Sensorapplikationen in der intelligenten Stadt mittels LoRa®-Funknetzen" gestartet wurde. Ziel des Projektes ist es, über ein flächendeckendes LoRa Funknetz sicher Sensorapplikationen für unterschiedlichste Nutzer und Anwendungsfälle in der Stadt zu schaffen. Das Projektkonsortium besteht aus den Unternehmen Stadtwerke Kamp-Lintfort, Deutsche Funkturm AG, ISIS IC GmbH, Linksniederrheinische Entwässerungs-Genossenschaft, Westnetz GmbH und IMST GmbH. Dieser Vortrag beschreibt die Erfahrungen aus dem ersten Projektjahr von „CitySens“. Er gibt einen Einblick über einzelne Anwendungsfälle und beschreibt die Herausforderungen bei der Installation und des Betriebs der Endgeräte und der Netzinfrastruktur. Darüber hinaus gibt er die aktuelle Netzabdeckung (Stand Herbst 2019) wieder. Abschließend wird eine Zusammenstellung der verwendeten Software Elemente und der einzelnen Geräte (Endgeräte sowie Gateways), die im ersten Projektjahr verwendet wurden präsentiert.
17:40 - 17:40
Get-Together in der Ausstellung

SOCIAL MEDIA

WEKA-FACHMEDIEN-EVENTS

In enger Zusammenarbeit mit anerkannten Experten und den verantwortlichen Redaktionen
unserer bekannten Medienmarken veranstalten wir jährlich rund 50 nationale und internationale B2B-Kongresse, Seminare und Workshops für ein fest definiertes Fachpublikum.

Dazu gehören Themen wie Embedded Systems, Automotive Ethernet, Batterietechnik,
Datacenter, Safety&Security, electronic Displays, Blockchain, IoT, Bordnetz, KI, Smart Building, Digital Workplace, TSN, Wireless-Technologien, Verkabelung und vieles mehr.

Übersicht aller aktuellen Veranstaltungen