Programm
Tag 1 - 2. Juli 2024
09:30 - 19:00
Session 1
KI für Industrie-Anwendungen
Begrüßung der Teilnehmer
Das Team der Elektronik Redaktion begleitet Sie durch den Tag.
Keynote: „Game Changer“ oder „Nettes Feature“?
Industrial AI zwischen Hype, Machbarkeit und Akzeptanz
Die „Industrial AI“ wird seit fast zehn Jahren in äußerst vielfältigen Pilot-Anwendungen verprobt. Sie funktioniert, liefert zuverlässige Ergebnisse und hat es im Vergleich zu den aktuellen Large Language Modellen dennoch nie zum „Hype“ geschafft. Woran liegt das? Was sind die Erfolgsfaktoren, was die Hindernisse?
Die Informatikerin Tanja Maass erforschte, entwickelte und implementierte mit der von ihr gegründeten Firma „Resolto“ 21 Jahre lang KI-Modelle für die Industrie. Seit 2018 gehört die Firma Resolto zur Festo Gruppe.
In dieser Keynote teilt sie Einblicke aus zahlreichen nationalen und internationalen Projekten, schaut auf den „Cultural Clash“ zwischen Ingenieuren und Informatikern und zeigt Wege auf, die gerade dem Industriestandort Deutschland ein besonderes Alleinstellungsmerkmal geben können.
Die „Industrial AI“ wird seit fast zehn Jahren in äußerst vielfältigen Pilot-Anwendungen verprobt. Sie funktioniert, liefert zuverlässige Ergebnisse und hat es im Vergleich zu den aktuellen Large Language Modellen dennoch nie zum „Hype“ geschafft. Woran liegt das? Was sind die Erfolgsfaktoren, was die Hindernisse?
Die Informatikerin Tanja Maass erforschte, entwickelte und implementierte mit der von ihr gegründeten Firma „Resolto“ 21 Jahre lang KI-Modelle für die Industrie. Seit 2018 gehört die Firma Resolto zur Festo Gruppe.
In dieser Keynote teilt sie Einblicke aus zahlreichen nationalen und internationalen Projekten, schaut auf den „Cultural Clash“ zwischen Ingenieuren und Informatikern und zeigt Wege auf, die gerade dem Industriestandort Deutschland ein besonderes Alleinstellungsmerkmal geben können.
Neueste Forschungstrends für Energieeffiziente KI (Edge AI)
Um die großen Möglichkeiten künstlichen Intelligenz zu nutzen, ist es notwendig das entsprechende Umsetzungs-Know-how in die Industrie zu bringen und innovative, rechenintensiven Produkte so nachhaltig wie möglich zu gestalten. Hierfür erforscht das Fraunhofer IIS die schnelle Umsetzung von energieeffizienten KI-Lösungen auf sensornahen, eingebetteten Systemen mittels Mehrzieloptimierung von KI-Performanz und Ressourcenbedarf (z.B. Speicher, Rechenlatenz). Hierdurch werden nachhaltige KI-Anwendungen speziell für eingebettete Systemen möglich. Um das entsprechende Know-how auch für die Industrie verfügbar zu machen, erarbeiten wir Weiterbildungen wie den "Certified Data Scientist specialized in TinyML" für Best Practices und Hard Skills in der praktischen Umsetzung. Die neuesten Methoden aus der Forschung wie Mehrzieloptimierung, tiefe Kompression, Architektursuche, Energiebedarfspräditkion und Laufzeitumgebungen für neuronale Netze auf Mikrocontrollern sollen der Industrie per Webplattform bereitgestellt werden. Darüber hinaus ermöglichen wir sogar das Nachtraining neuronaler Netze direkt auf Mikrocontrollern, um energieintensive Cloudkommunikation zu vermeiden. Die neuesten Entwicklungen auf Hardwareseite sind dedizierte KI-Beschleuniger wie ADELIA, der mittels einer analogen Crossbar viele Berechnungen parallel im Speicher durchführen kann (sog. "Analog In-Memory Compute") und somit eine Leistungsaufnahme von weniger als 200µW hat. Eventbasierte KI-Beschleuniger wie unser SENNA Chip, gehen noch einen Schritt weiter, indem sie sog. Spiking Neural Networks umsetzen. In diesen Architekturen werden Daten durch Pulse dargestellt und einzelne Recheneinheiten durch biologisch-inspirierte Neuronen realisiert. Das Fraunhofer Forschungsfeld Neuromorphic Computing und das Ökosystem rund um ADELIA und SENNA mit der dazugehörigen Toolchain bietet Industriekunden die Möglichkeit diese neusten Trends in eigene innovative Halbleiterprodukte zu integrieren.
10:45 - 11:30
Kaffeepause & Networking in der Ausstellung
Umsetzung von KI in der Automatisierung als wirtschaftlich kalkulierbare Evolution.
Die Kombination von klassischen Komponenten der Automatisierungstechnik mit den neuen Möglichkeiten der KI stellt Produktverantwortliche aller Ebenen und Disziplinen vor Herausforderungen. Auch wenn Strategie und Ziele definiert wurden, so ist der Weg bis zum fertigen Algorithmus in einem Embedded System eine schwierige Aufgabe. Mit vielen Unbekannten – dafür wenig Erfahrung und Wissen in der neuen Disziplin Embedded KI ausgestattet – müssen heute Entwicklungsleiter, Produktmanager und Entwickler, aber auch die Geschäftsleitung über die Umsetzung von Embedded KI in ihren neuen Geräten, Maschinen und Anlagen entscheiden. Der Vortrag soll als Guideline, als Ideenquelle und als "how-to-do AI in Embedded Systems" verstanden werden:
- Welche KI-Hardwareerweiterung soll es denn sein? Wo ist die Abgrenzung zwischen lokaler, Embedded KI und internetbasierten KI-Engines?
- Wieviel Rechenleistung muss ich in meinem Embedded System vorsehen? Ist der fertige Algorithmus nicht die grosse Unbekannte?
- Welche Konzepte können angewendet werden, um Flexibilität für Produktgestaltung, Produktionskonzept und Zielkosten im Lebenszyklus des Automatisierungsproduktes aufrecht zu erhalten?
- Ausblick: Mit welchen Trends ist für Embedded KI zu rechnen und welchen Einflüssen auf die Produktgestaltung der Automatisierungsprodukte ist zu rechnen.
- Mit konkreten Do‘s und Dont‘s wird ein evolutionäres Hardware-Entwicklungsszenario vorgestellt, welches flexibel und skalierbar auf die Anforderungen einer feldnahen KI berücksichtigt.
- Anhand zweier Projektbeispiele werden KI Umsetzungen aufgezeigt: "Sprachbot" für die Maschinenbedienung sowie HW-Entwicklung ARM-basierte Embedded Steuerung in Kombination mit einer Coral TPU.
Neben konkreten technischen Inhalten wird auf strategische Aspekte wie Produktgestaltung, Gesamtkostenverfolgung, etc. eingegangen
- Welche KI-Hardwareerweiterung soll es denn sein? Wo ist die Abgrenzung zwischen lokaler, Embedded KI und internetbasierten KI-Engines?
- Wieviel Rechenleistung muss ich in meinem Embedded System vorsehen? Ist der fertige Algorithmus nicht die grosse Unbekannte?
- Welche Konzepte können angewendet werden, um Flexibilität für Produktgestaltung, Produktionskonzept und Zielkosten im Lebenszyklus des Automatisierungsproduktes aufrecht zu erhalten?
- Ausblick: Mit welchen Trends ist für Embedded KI zu rechnen und welchen Einflüssen auf die Produktgestaltung der Automatisierungsprodukte ist zu rechnen.
- Mit konkreten Do‘s und Dont‘s wird ein evolutionäres Hardware-Entwicklungsszenario vorgestellt, welches flexibel und skalierbar auf die Anforderungen einer feldnahen KI berücksichtigt.
- Anhand zweier Projektbeispiele werden KI Umsetzungen aufgezeigt: "Sprachbot" für die Maschinenbedienung sowie HW-Entwicklung ARM-basierte Embedded Steuerung in Kombination mit einer Coral TPU.
Neben konkreten technischen Inhalten wird auf strategische Aspekte wie Produktgestaltung, Gesamtkostenverfolgung, etc. eingegangen
Generative KI in der Fertigung – Chancen und Herausforderungen
In den letzten Monaten haben zahlreiche Unternehmen begonnen, GPT-basierte Lösungen zu implementieren, die auf ihren unternehmenseigenen Daten operieren, um interne Prozesse bspw. im Marketing oder der Personalabteilung zu optimieren und innovative Lösungen zu entwickeln. Jedoch nutzen nur wenige dieser Unternehmen ihre Produktionsdaten oder Kern-Knowhow, wie Konstruktionsdaten oder Maschinenprogramme, für die Arbeit mit generativer KI. Dies stellt eine verpasste Gelegenheit dar, da gerade diese Daten das Potenzial haben, signifikante Effizienzsteigerungen und Innovationen voranzutreiben.
Generative KI bietet immense Chancen für die Fertigungsindustrie, von der Beschleunigung des Designs bis hin zur Optimierung von Fertigungsprozessen. Beispielsweise kann die Nutzung von GPT-Technologien zur Analyse und Optimierung von Konstruktionsdaten die Entwicklung von Produkten revolutionieren, indem schnellere Iterationen und Anpassungen an Kundenbedürfnisse ermöglicht werden. Ebenso kann die Anwendung auf Maschinenprogramme die Produktionseffizienz durch die Optimierung von Bearbeitungszeiten und Materialverbrauch steigern.
Trotz dieser Potenziale stehen Unternehmen vor Herausforderungen bei der Integration dieser fortschrittlichen Technologien in ihre Kerngeschäftsprozesse. Technische Barrieren, Datenschutzbedenken und der Mangel an Fachwissen sind nur einige der Hindernisse, die es zu überwinden gilt.
Dieser Vortrag skizziert einfache Wege, wie Unternehmen ihr Kern-Knowhow effektiv für den Einsatz generativer KI nutzen können. Die Überwindung der bestehenden Herausforderungen erfordert eine strategische Planung, Investitionen in die Weiterbildung der Mitarbeiter und eine Kultur, die Offenheit für technologische Innovationen fördert. Unternehmen, die diese Schritte unternehmen, können nicht nur ihre Produktivität und Effizienz steigern, sondern auch eine Führungsrolle in der digitalen Transformation der Fertigungsindustrie einnehmen.
12:30 - 13:45
Mittagspause & Networking in der Ausstellung
Industrie-Produktivität durch AI-Datenanalysen: Automatisierung, Prognosen und Effizienz durch selbstlernende Systeme
Wir werden untersuchen, wie KI-Analytik die traditionelle und vor allem manuelle Datenanalyse übertrifft und es Produzenten ermöglicht, komplexe Prozesse zu automatisieren, wie Sie ihre bestehende Produktivitätseffizienz maximieren können und wo Investitionen am lukrativsten sind.
Anhand praktischer Beispiele heben wir die unmittelbaren Vorteile der AI-Analytik hervor, einschließlich gestraffter Betriebsabläufe, reduzierter manueller Arbeit und der Fähigkeit, schnell fundierte Entscheidungen zu treffen. Im Gegenzug sprechen wir die harte Realität für Unternehmen an, die die Integration von KI hinauszögern: eine wachsende Kluft, da Konkurrenten durch KI verstärkt, effizienter und auf Marktanforderungen abgestimmt werden.
Unsere Präsentation bietet eine handlungsorientierte Roadmap für Produzenten, um AI-Analytik für ihre Bedürfnisse zu nutzen, und betont die Dringlichkeit der Adoption, um Überholung zu vermeiden und Marktführerschaft zu erlangen. Die Teilnehmer werden ein klares Verständnis gewinnen, wie sie KI für ihre eigenen Geschäftsdaten nutzen und die strategischen Schritte unternehmen können, um ihre Daten in ein mächtiges Werkzeug für Wachstum zu verwandeln.
Anhand praktischer Beispiele heben wir die unmittelbaren Vorteile der AI-Analytik hervor, einschließlich gestraffter Betriebsabläufe, reduzierter manueller Arbeit und der Fähigkeit, schnell fundierte Entscheidungen zu treffen. Im Gegenzug sprechen wir die harte Realität für Unternehmen an, die die Integration von KI hinauszögern: eine wachsende Kluft, da Konkurrenten durch KI verstärkt, effizienter und auf Marktanforderungen abgestimmt werden.
Unsere Präsentation bietet eine handlungsorientierte Roadmap für Produzenten, um AI-Analytik für ihre Bedürfnisse zu nutzen, und betont die Dringlichkeit der Adoption, um Überholung zu vermeiden und Marktführerschaft zu erlangen. Die Teilnehmer werden ein klares Verständnis gewinnen, wie sie KI für ihre eigenen Geschäftsdaten nutzen und die strategischen Schritte unternehmen können, um ihre Daten in ein mächtiges Werkzeug für Wachstum zu verwandeln.
Eile mit Weile – Was wir in 5 Jahren KI über unsere Abläufe lernten
In den letzten fünf Jahren haben wir eine beeindruckende Entwicklung bei der Anwendung von KI in unseren Kundenprojekten erlebt. KI wird zunehmend eingesetzt, um Prozesse zu optimieren, Personalengpässe zu überwinden und innovative Softwarefunktionen zu entwickeln. Der Hype um KI ist unbestreitbar, aber es ist wichtig, einen geordneten und schrittweisen Ansatz zu verfolgen, um nicht im Chaos zu versinken.
Die Automatisierung von Prozessen mit Hilfe von KI hat zweifellos viele Vorteile. Die Automatisierung erfordert eine sorgfältige Vorbereitung der Prozesse. Andernfalls wird lediglich das bestehende Chaos automatisiert. Unternehmen sollten sich daher in einem ersten Schritt sorgfältig auf die Automatisierung vorbereiten. Um den Weg erfolgreich weiter zu gehen, sind strategische Entwicklungsschritte und möglicherweise eine organisatorische Neuausrichtung notwendig. Es ist wichtig zu akzeptieren, dass sich Aufgaben durch den Einsatz von KI verändern oder sogar ganz wegfallen können. KI hat massive Auswirkungen auf die Organisation im Hinblick auf erforderliche Kompetenzen und Entscheidungsspielräume.
Eine unserer ersten Anwendungen war die Analyse von CAN-Netzwerken. Hier war es entscheidend, KI-Technologie sowohl für die Erkennung von Angriffen als auch für den Angriff selbst einzusetzen. Im Laufe der Zeit haben wir gelernt, wie KI zu einer Beschleunigung von Prozessen führt. Die konkreten Produktivitätssteigerungen, die wir in der Folge erzielen konnten, schwanken je nach Projekt zwischen 10% und 50%. Im Allgemeinen führt KI zu einer Verlagerung von Teammitgliedern hin zu Automatisierungsinitiativen.
Insgesamt zeigt sich, dass KI nicht nur Aufgaben rationalisiert, sondern auch organisatorische und individuelle Fähigkeiten verbessert. Wir erkannten, dass der Erfolg maßgeblich von den Kenntnissen und Fähigkeiten im Umgang mit KI abhängt. Nur wer mit dem Betrieb und der Entwicklung von KI-Systemen vertraut ist, kann in einer zunehmend von KI geprägten Welt bestehen.
Die Automatisierung von Prozessen mit Hilfe von KI hat zweifellos viele Vorteile. Die Automatisierung erfordert eine sorgfältige Vorbereitung der Prozesse. Andernfalls wird lediglich das bestehende Chaos automatisiert. Unternehmen sollten sich daher in einem ersten Schritt sorgfältig auf die Automatisierung vorbereiten. Um den Weg erfolgreich weiter zu gehen, sind strategische Entwicklungsschritte und möglicherweise eine organisatorische Neuausrichtung notwendig. Es ist wichtig zu akzeptieren, dass sich Aufgaben durch den Einsatz von KI verändern oder sogar ganz wegfallen können. KI hat massive Auswirkungen auf die Organisation im Hinblick auf erforderliche Kompetenzen und Entscheidungsspielräume.
Eine unserer ersten Anwendungen war die Analyse von CAN-Netzwerken. Hier war es entscheidend, KI-Technologie sowohl für die Erkennung von Angriffen als auch für den Angriff selbst einzusetzen. Im Laufe der Zeit haben wir gelernt, wie KI zu einer Beschleunigung von Prozessen führt. Die konkreten Produktivitätssteigerungen, die wir in der Folge erzielen konnten, schwanken je nach Projekt zwischen 10% und 50%. Im Allgemeinen führt KI zu einer Verlagerung von Teammitgliedern hin zu Automatisierungsinitiativen.
Insgesamt zeigt sich, dass KI nicht nur Aufgaben rationalisiert, sondern auch organisatorische und individuelle Fähigkeiten verbessert. Wir erkannten, dass der Erfolg maßgeblich von den Kenntnissen und Fähigkeiten im Umgang mit KI abhängt. Nur wer mit dem Betrieb und der Entwicklung von KI-Systemen vertraut ist, kann in einer zunehmend von KI geprägten Welt bestehen.
Wissenstransfer im Maschinenservice – welche KI-Lösungen funktionieren wirklich in der industriellen Praxis und warum?
Bis zum Jahr 2035 scheiden 7 Mio. Arbeitskräfte und damit viele relevante Wissensträger altersbedingt aus deutschen Unternehmen aus. Besonders vom hohen Durchschnittsalter und mangelnder Nachkömmlinge betroffene Bereiche sind dabei die Service- bzw. Instandhaltungsabteilung. Es ist also kein Zufall, dass sich immer mehr Maschinenbau- und Industrieunternehmen der zunehmenden Bedeutung von Wissenstransfer bewusstwerden. Nicht zuletzt, weil sich die zunehmende Wissenslücke mittlerweile deutlich in längeren Reaktionszeiten im Service, folglich längeren ungeplanten Produktionsstillständen äußern. Um dem entgegenzuwirken, wird immer häufiger bewusst in Zeit, Ressourcen und Lösungen investiert. Das junge Digitalunternehmen FINDIQ aus Herford, stellt solch eine Lösung. Mit und für die Industrie hat es eine KI-basierte Software entwickelt, die sich erstmalig der Nutzbarmachung von Wissen – und nicht nur Daten – zu den immer komplexer werdenden Industriemaschinen widmet. So sollen Maschinenbetrieb, -service und damit Produktionsstabilität und -verfügbarkeit langfristig gesichert werden.
Warum sich FINDIQ dabei bewusst vom typischen „Sharepoint“ distanziert und sich nach 3-jähriger Validierungsarbeit gegen den Einsatz der aktuell popularisierten generativen KI entschieden hat, zeigt Gaetano Giglio an Best Practice Beispielen aus verschiedenen Branchen.
Warum sich FINDIQ dabei bewusst vom typischen „Sharepoint“ distanziert und sich nach 3-jähriger Validierungsarbeit gegen den Einsatz der aktuell popularisierten generativen KI entschieden hat, zeigt Gaetano Giglio an Best Practice Beispielen aus verschiedenen Branchen.
15:15 - 15:45
Kaffeepause & Networking in der Ausstellung
KI funktioniert: Praxisbeispiele, wie man mit den richtigen Daten + Engineering-KI Produkte + Prozesse effizient validiert, qualifiziert und toleriert
Hauptpunkte:
• Auf Qualität steuern und regeln und Kosten senken
• Mit der Methode Robust Design die entscheidenden Smart Data aus der Datenflut von automatisierten Prozessen filtern
• Mit Engineering-KI-System aus Smart Data Vorhersagemodelle generieren zum Validieren, Qualifizieren und Tolerieren
Automatisierte Prozesse produzieren massenhaft Daten. Künstliche Intelligenz lebt von Daten. Daraus entsteht ein Dreamteam, wenn man die wichtigen Daten - Smart Data statt Big Data - aus den Automationsdaten filtern und mit Künstlicher Intelligenz auswerten kann.
Im Vortrag wird gezeigt, wie man Smart Data ermittelt, mit der Methode Robust Design priorisiert und mit einer innovativen Engineering-KI auswertet. Diese erstellt schon auf Basis von Stichprobengrößen von 6 bis 30 valide Vorhersagemodelle und deckt unbekannte Wirkmechanismen auf. Damit kann man über den ganzen Produktlebenszyklus Qualität vorhersagen, Kosten senken, Produkte validieren und qualifizieren, Parametrierung und Toleranzen ableiten und Herstellprozesse validieren.
Die Synergien zwischen Automatisierung und Engineering-KI sind besonders hoch, wenn die möglichen Einflussgrößen methodisch ermittelt wurden und eine Standardschnittstelle (z.B. OPC-UA) zu den Maschinen vorliegt.
Die Methode und die Engineering-KI funktionieren aber auch, wenn diese Idealbedingungen nicht vorliegen. Bei halbautomatischen Prozessen ohne Labeling können über einen Datensammler mit Labeling-Tool die Smart Data für die Engineering-KI erzeugt werden. Bei fehlender Sensorik wird mit der Methode Robust Design und der KI ermittelt, wo genau Sensoren nachgerüstet werden müssen, um nicht unnötig zu investieren.
Im Vortrag werden die Methode Robust Design erläutert und der Nutzen anhand von realen Praxisbeispielen dargestellt.
Die Engineering-KI wird auch in verschiedenen Forschungsprojekten eingesetzt.
• Auf Qualität steuern und regeln und Kosten senken
• Mit der Methode Robust Design die entscheidenden Smart Data aus der Datenflut von automatisierten Prozessen filtern
• Mit Engineering-KI-System aus Smart Data Vorhersagemodelle generieren zum Validieren, Qualifizieren und Tolerieren
Automatisierte Prozesse produzieren massenhaft Daten. Künstliche Intelligenz lebt von Daten. Daraus entsteht ein Dreamteam, wenn man die wichtigen Daten - Smart Data statt Big Data - aus den Automationsdaten filtern und mit Künstlicher Intelligenz auswerten kann.
Im Vortrag wird gezeigt, wie man Smart Data ermittelt, mit der Methode Robust Design priorisiert und mit einer innovativen Engineering-KI auswertet. Diese erstellt schon auf Basis von Stichprobengrößen von 6 bis 30 valide Vorhersagemodelle und deckt unbekannte Wirkmechanismen auf. Damit kann man über den ganzen Produktlebenszyklus Qualität vorhersagen, Kosten senken, Produkte validieren und qualifizieren, Parametrierung und Toleranzen ableiten und Herstellprozesse validieren.
Die Synergien zwischen Automatisierung und Engineering-KI sind besonders hoch, wenn die möglichen Einflussgrößen methodisch ermittelt wurden und eine Standardschnittstelle (z.B. OPC-UA) zu den Maschinen vorliegt.
Die Methode und die Engineering-KI funktionieren aber auch, wenn diese Idealbedingungen nicht vorliegen. Bei halbautomatischen Prozessen ohne Labeling können über einen Datensammler mit Labeling-Tool die Smart Data für die Engineering-KI erzeugt werden. Bei fehlender Sensorik wird mit der Methode Robust Design und der KI ermittelt, wo genau Sensoren nachgerüstet werden müssen, um nicht unnötig zu investieren.
Im Vortrag werden die Methode Robust Design erläutert und der Nutzen anhand von realen Praxisbeispielen dargestellt.
Die Engineering-KI wird auch in verschiedenen Forschungsprojekten eingesetzt.
Testen von KI-Systemen - Revolution oder Evolution?
Der Vortrag stellt die Verifikation, d.h. den klassischen dynamischen und statischen Test, von KI-Systemen in das Zentrum. Es werden folgende Fragen behandelt:
Welche Voraussetzungen müssen erfüllt sein um KI-Systeme testen zu können?
Wo liegen die Unterschiede, zum Test von klassischen, software lastigen Embedded Systemen?
Welchen Stand hat die Normung zum Test von Embedded KI-Systemen erreicht?
Nach einer Begriffsdefinition werden die Verifikations-relevanten, grundsätzlich verschiedene Arten von KI unterschieden. Dies sind die starke KI und die schwache KI. Innerhalb der schwachen KI wird dann der Fokus auf das maschinelle Lernen gelegt. Innerhalb des maschinellen Lernens werden folgende wesentlichen KI-Typen und deren Anwendungsfelder beleuchtet:
- Überwachtes maschinelles Lernen
- Unüberwachtes maschinelles Lernen
- Bestärkendes maschinelles Lernen
Im nächsten Abschnitt werden die wesentliche Bestandteile eines KI-Systems (Math. Algorithmus, Daten, Rückkopplung zur Optimierung) mit dem Aufbau klassischer, im Einsatz befindlichen Systemen im Auto und im Flugzeug verglichen.
Daraus werden dann Gemeinsamkeiten und Unterschiede fürs Testen beider Systeme abgeleitet und begründet. Daraus ergibt sich, dass viele der Herausforderungen die es schon beim Testen klassischer Systeme gibt durch KI-Systeme teils deutlich verstärkt werden:
- Validierung
- Genauigkeit, Komplexität und Vollständigkeit von math. Algorithmen
- Exponentielle, funktionale Varianz
- Korrektheit von Systemen bei Ausgangssignale auf Eingangssignale wirken (Regelschleifen)
- Entwurf und Herstellung automatisierter Testsysteme
KI-Systeme welche auf bestärkendem maschinellem Lernen basieren werden (begründet) nicht weiter betrachtet.
Eine neue Herausforderung stellt die Datenqualität für Trainingsdaten der KI-System dar.
Abschließend werden die Stärken und Schwächen der Testnorm zur KI: ISO2911 Teil 11 aus praktischer Sicht beleuchtet. Ein zusammenfassendes Fazit beschließt den Vortrag.
Welche Voraussetzungen müssen erfüllt sein um KI-Systeme testen zu können?
Wo liegen die Unterschiede, zum Test von klassischen, software lastigen Embedded Systemen?
Welchen Stand hat die Normung zum Test von Embedded KI-Systemen erreicht?
Nach einer Begriffsdefinition werden die Verifikations-relevanten, grundsätzlich verschiedene Arten von KI unterschieden. Dies sind die starke KI und die schwache KI. Innerhalb der schwachen KI wird dann der Fokus auf das maschinelle Lernen gelegt. Innerhalb des maschinellen Lernens werden folgende wesentlichen KI-Typen und deren Anwendungsfelder beleuchtet:
- Überwachtes maschinelles Lernen
- Unüberwachtes maschinelles Lernen
- Bestärkendes maschinelles Lernen
Im nächsten Abschnitt werden die wesentliche Bestandteile eines KI-Systems (Math. Algorithmus, Daten, Rückkopplung zur Optimierung) mit dem Aufbau klassischer, im Einsatz befindlichen Systemen im Auto und im Flugzeug verglichen.
Daraus werden dann Gemeinsamkeiten und Unterschiede fürs Testen beider Systeme abgeleitet und begründet. Daraus ergibt sich, dass viele der Herausforderungen die es schon beim Testen klassischer Systeme gibt durch KI-Systeme teils deutlich verstärkt werden:
- Validierung
- Genauigkeit, Komplexität und Vollständigkeit von math. Algorithmen
- Exponentielle, funktionale Varianz
- Korrektheit von Systemen bei Ausgangssignale auf Eingangssignale wirken (Regelschleifen)
- Entwurf und Herstellung automatisierter Testsysteme
KI-Systeme welche auf bestärkendem maschinellem Lernen basieren werden (begründet) nicht weiter betrachtet.
Eine neue Herausforderung stellt die Datenqualität für Trainingsdaten der KI-System dar.
Abschließend werden die Stärken und Schwächen der Testnorm zur KI: ISO2911 Teil 11 aus praktischer Sicht beleuchtet. Ein zusammenfassendes Fazit beschließt den Vortrag.
Künstliche Intelligenz für Sichere und Flexible Fertigungslösungen – Ein Ausblick
In der Industrie 4.0 werden – mithilfe von Künstlicher Intelligenz (KI) und voranschreitender Digitalisierung – Maschinen und Abläufe intelligent vernetzt, um industrielle Prozesse zu optimieren. Gleichzeitig findet aufgrund von Fachkräftemangel, kundenspezifischen Lösungen, sowie steigenden Energiekosten ein Wandel zu einer werteorientierten Sicht auf die Produktion statt: Der Mensch, die Nachhaltigkeit, und die Resilienz rücken hier in den Vordergrund.
Innerhalb dieses neuen Paradigmas hat Künstliche Intelligenz nicht nur das Potential, Prozesse zu optimieren und automatisieren, sondern auch sichere Mensch-Maschine-Kollaboration und resiliente Fertigungsprozesse zu ermöglichen. Hierfür erforscht das Fraunhofer IKS, wie sichere und effiziente industrielle KI-Anwendungen gewährleistet werden können.
In diesem Vortrag beleuchten wir Erfahrungen mit KI in der Automatisierung aus Forschung und Anwendung. Anhand von Beispielen zeigen wir nicht nur, inwiefern KI für flexible und intelligente Fertigungslösungen von Nutzen sein kann, sondern auch wie ihre Qualität und Zuverlässigkeit, z.B. in sicherheitskritischen Anwendungen oder dynamischen Situationen, abgesichert werden können. Hierfür betrachten wir bereits mögliche KI-Anwendungen – wie Kamerabasierte Qualitätskontrolle – sowie aufkommende KI-Anwendungen – basierend auf Generative AI und Large Language Models – und deren Potential.
Innerhalb dieses neuen Paradigmas hat Künstliche Intelligenz nicht nur das Potential, Prozesse zu optimieren und automatisieren, sondern auch sichere Mensch-Maschine-Kollaboration und resiliente Fertigungsprozesse zu ermöglichen. Hierfür erforscht das Fraunhofer IKS, wie sichere und effiziente industrielle KI-Anwendungen gewährleistet werden können.
In diesem Vortrag beleuchten wir Erfahrungen mit KI in der Automatisierung aus Forschung und Anwendung. Anhand von Beispielen zeigen wir nicht nur, inwiefern KI für flexible und intelligente Fertigungslösungen von Nutzen sein kann, sondern auch wie ihre Qualität und Zuverlässigkeit, z.B. in sicherheitskritischen Anwendungen oder dynamischen Situationen, abgesichert werden können. Hierfür betrachten wir bereits mögliche KI-Anwendungen – wie Kamerabasierte Qualitätskontrolle – sowie aufkommende KI-Anwendungen – basierend auf Generative AI und Large Language Models – und deren Potential.
17:15 - 19:00
Get-together & Networking in der Ausstellung
Tag 2 - 3. Juli 2024
09:00 - 16:45
Session 2
KI für Embedded-Anwendungen
Begrüßung der Teilnehmer
Das Team der Elektronik Redaktion begleitet Sie durch den Tag.
Die Cyberangriffserkennung gehört in den Endpunkt
In IoT- und OT-Datenübertragungssystemen gibt es zahlreiche Anwendungsmöglichkeiten für KI- bzw. Machine Learning (ML)-Algorithmen. Dazu gehören beispielsweise intelligente Datenverdichtungen und Verkehrsvorhersagen, QoS-/QoE-Algorithmen inklusive Routinglösungen sowie die Netzwerksicherheit (Cybersecurity).
Auf Grund der dezentralen IoT-/OT-Architekturen bieten solche Applikationen eine sehr große Angriffsfläche für Cyberattacken. Für einen möglichst sicheren Betrieb ist daher zumindest eine Angriffserkennung in den einzelnen Endpunkten erforderlich. Dazu gehört zum einen, dass Backend-Anwendungen beispielsweise manipulierte Daten sowie Frontend-Softwarefunktionen unzulässige Nutzerzugriffe erkennen sollen. Es ist zum anderen aber auch darauf zu achten, dass die sensorseitigen Embedded Systeme sich durch einen Cyberangriff nicht unbemerkt in ein Botnet integrieren lassen. Mit Hilfe eines KI-basierten Intrusion Detection System (IDS) lässt sich so etwas verhindern. Ein solches IDS hat in der Regel zwei Betriebsarten: Einen Lern- und einen Inferenzmodus. Im Lernmodus werden typische Verkehrsdaten gesammelt, um daraus ML-Modelle zu bauen. Im Inferenzmode werden Verkehrsdatensegmente aus der Echtzeitkommunikation ausgewählter Netzwerkschnittstellen mit Hilfe des ML-Modells klassifiziert, um Anomalien zu erkennen.
Der Beitrag geht nicht nur der Fragestellung nach, wofür man KI-basierte Verfahren in IoT- und OT-Kommunikationsnetzwerken einsetzen kann, sondern zeigt darüber hinaus an Hand eines Beispiels auf, wie die Vorgehensweise bei der Entwicklung einer Anomalieerkennung für OT-Netzwerksegmente ist. Dabei wird ein Workflow vorgestellt, der aus den Verkehrsdaten einer IoT- bzw. OT-Baugruppe nahezu automatisch lernt, zwischen normalen und abnormalen Datenverkehr zu klassifizieren. Dieses Wissen wird im Rahmen des Entwicklungsprozesses in einem ML-Modell zusammengefasst, auf Embedded Systemen verschiedener IoT-/OT-Endpunkte eingesetzt und entsprechend gepflegt.
Auf Grund der dezentralen IoT-/OT-Architekturen bieten solche Applikationen eine sehr große Angriffsfläche für Cyberattacken. Für einen möglichst sicheren Betrieb ist daher zumindest eine Angriffserkennung in den einzelnen Endpunkten erforderlich. Dazu gehört zum einen, dass Backend-Anwendungen beispielsweise manipulierte Daten sowie Frontend-Softwarefunktionen unzulässige Nutzerzugriffe erkennen sollen. Es ist zum anderen aber auch darauf zu achten, dass die sensorseitigen Embedded Systeme sich durch einen Cyberangriff nicht unbemerkt in ein Botnet integrieren lassen. Mit Hilfe eines KI-basierten Intrusion Detection System (IDS) lässt sich so etwas verhindern. Ein solches IDS hat in der Regel zwei Betriebsarten: Einen Lern- und einen Inferenzmodus. Im Lernmodus werden typische Verkehrsdaten gesammelt, um daraus ML-Modelle zu bauen. Im Inferenzmode werden Verkehrsdatensegmente aus der Echtzeitkommunikation ausgewählter Netzwerkschnittstellen mit Hilfe des ML-Modells klassifiziert, um Anomalien zu erkennen.
Der Beitrag geht nicht nur der Fragestellung nach, wofür man KI-basierte Verfahren in IoT- und OT-Kommunikationsnetzwerken einsetzen kann, sondern zeigt darüber hinaus an Hand eines Beispiels auf, wie die Vorgehensweise bei der Entwicklung einer Anomalieerkennung für OT-Netzwerksegmente ist. Dabei wird ein Workflow vorgestellt, der aus den Verkehrsdaten einer IoT- bzw. OT-Baugruppe nahezu automatisch lernt, zwischen normalen und abnormalen Datenverkehr zu klassifizieren. Dieses Wissen wird im Rahmen des Entwicklungsprozesses in einem ML-Modell zusammengefasst, auf Embedded Systemen verschiedener IoT-/OT-Endpunkte eingesetzt und entsprechend gepflegt.
Fortgeschrittene Signalverarbeitung und KI-Integration in Eingebetteten Systemen
Moderne Machine-Learning-Bibliotheken ermöglichen nicht nur die Entwicklung neuronaler Netze, sondern bieten auch umfassende Tools für die effiziente Signalverarbeitung und Datenanalyse.
Im ersten Teil dieses Vortrags konzentrieren wir uns auf die Nutzung dieser fortschrittlichen Methoden zur Optimierung von Signalverarbeitungsalgorithmen.
Diese Bibliotheken ermöglichen den Export von Berechnungsbäumen, was eine hohe Portabilität bietet, indem Algorithmen nahtlos auf verschiedenste Geräte übertragen und dort ausgeführt werden können.
Wir diskutieren Best Practices zum Einsatz dieser Algorithmen, unter anderem Quantisierung und Graph Lowering.
Des Weiteren beleuchten wir im zweiten Teil des Vortrages die Herausforderungen und Lösungsansätze beim Einsatz neuronaler Netzwerkarchitekturen auf Mikrocontrollern, unter anderem im Hinblick auf Energieverbrauch und dem universellen Einsatz der Algorithmen.
Der Vortrag zielt darauf ab, konkrete Einblicke und Anwendungsbeispiele zu bieten, wie Systeme durch den Einsatz fortschrittlicher KI-Technologien optimiert werden und neue Anwendungsfelder zu erschlossen werden.
Im ersten Teil dieses Vortrags konzentrieren wir uns auf die Nutzung dieser fortschrittlichen Methoden zur Optimierung von Signalverarbeitungsalgorithmen.
Diese Bibliotheken ermöglichen den Export von Berechnungsbäumen, was eine hohe Portabilität bietet, indem Algorithmen nahtlos auf verschiedenste Geräte übertragen und dort ausgeführt werden können.
Wir diskutieren Best Practices zum Einsatz dieser Algorithmen, unter anderem Quantisierung und Graph Lowering.
Des Weiteren beleuchten wir im zweiten Teil des Vortrages die Herausforderungen und Lösungsansätze beim Einsatz neuronaler Netzwerkarchitekturen auf Mikrocontrollern, unter anderem im Hinblick auf Energieverbrauch und dem universellen Einsatz der Algorithmen.
Der Vortrag zielt darauf ab, konkrete Einblicke und Anwendungsbeispiele zu bieten, wie Systeme durch den Einsatz fortschrittlicher KI-Technologien optimiert werden und neue Anwendungsfelder zu erschlossen werden.
10:15 - 11:00
Kaffeepause & Networking in der Ausstellung
Embedded-KI in a Nutshell
Die dezentrale Struktur der KI in Symbiose mit der herkömmlichen, zentralen KI eröffnet neue Möglichkeiten im Sinne der Echtzeitfähigkeit, Energieeffizienz und Datenhoheit.
Dieser Kurzvortrag soll eine Hinführung zur Embedded-KI auf Mikrocontrollern, MPUs bis hin zu FPGAs ab 40 Cent aufwärts sein.
Schwerpunkt liegt dabei auf Use Cases in der Industrie, in weisser Ware und Automotive in den Feldern User Interaction, Predictive Maintenance und funktionale Innovationen. Von einer Sprachsteuerung in Maschinen über einen Duschsensor bis hin zu einem Automotive-Schlaganfallserkennung im Gesicht ist der Einsatz der Embedded-KI-Sensoren weitläufig.
Es sollen der Entwicklungs-Prozess mit entsprechenden Halbleitern und Tools sowie Markt-Erfahrungsberichte ausgetauscht werden, mitsamt einem kurzen Blick in die Zukunft mit adaptiven Systemen, SNNs und neuromorphen Computing.
Dieser Kurzvortrag soll eine Hinführung zur Embedded-KI auf Mikrocontrollern, MPUs bis hin zu FPGAs ab 40 Cent aufwärts sein.
Schwerpunkt liegt dabei auf Use Cases in der Industrie, in weisser Ware und Automotive in den Feldern User Interaction, Predictive Maintenance und funktionale Innovationen. Von einer Sprachsteuerung in Maschinen über einen Duschsensor bis hin zu einem Automotive-Schlaganfallserkennung im Gesicht ist der Einsatz der Embedded-KI-Sensoren weitläufig.
Es sollen der Entwicklungs-Prozess mit entsprechenden Halbleitern und Tools sowie Markt-Erfahrungsberichte ausgetauscht werden, mitsamt einem kurzen Blick in die Zukunft mit adaptiven Systemen, SNNs und neuromorphen Computing.
Load-Monitoring mit Embedded-KI Systemen
Die Integration Künstlicher Intelligenz (KI), insbesondere des maschinellen Lernens (ML), in Embedded-Systeme markiert einen Schlüsselimpuls für technologische Innovationen in unserer digitalen Gegenwart. Diese Entwicklung steht an der Schwelle zu einer Revolutionierung der Datenaufbereitung, -interpretation und -nutzung direkt am Erfassungsort. Die Eingliederung von ML-Algorithmen in Embedded-Prozessoren und Mikrocontroller stellt uns allerdings vor diverse Herausforderungen. Dazu zählen der Umgang mit limitierten Rechen- und Speicherkapazitäten sowie die Notwendigkeit, Energieeffizienz zu gewährleisten. Durch verschiedene Techniken lässt sich die Modellgröße verkleinern und die Ausführungsgeschwindigkeit steigern, ohne dabei signifikante Genauigkeitsverluste in Kauf nehmen zu müssen.
Ein Anwendungsbeispiel von KI und ML in Embedded-Systemen ist die Analyse von Stromdaten und die Überwachung der Leistung. Mit dem zunehmenden Gebrauch von intelligenten Messgeräten (Smart Metern) liegen detaillierte Daten zum Energieverbrauch vor. Zudem bieten digital konfigurierbare Stromversorgungen mit Betriebsdatenkommunikation eine essentielle Basis für die Entwicklung von Systemen zur Zustandsüberwachung und Anomalie-Erkennung auf Basis von Embedded-KI. ML-basierte Systeme lernen aus historischen Daten, erkennen komplexe Muster in Echtzeit und eignen sich somit hervorragend für die Vorhersage von Anomalien, die Erkennung von Zustandsänderungen und die Optimierung des Energieverbrauchs. Spezifische Anwendungsbeispiele umfassen intelligente Messsysteme die Verbrauchsmuster identifizieren und Anomalien erkennen, sowie prädiktive Wartungssysteme.
Zusätzlich gewinnt das Thema Nachhaltigkeit in der Entwicklung von Embedded-KI zunehmend an Bedeutung. Durch die Auswahl energieeffizienter ML-Algorithmen und die Minimierung der Umweltauswirkungen von Hardwarekomponenten können diese Systeme wesentlich zur Reduktion des CO2-Fußabdrucks beitragen.
Ein Anwendungsbeispiel von KI und ML in Embedded-Systemen ist die Analyse von Stromdaten und die Überwachung der Leistung. Mit dem zunehmenden Gebrauch von intelligenten Messgeräten (Smart Metern) liegen detaillierte Daten zum Energieverbrauch vor. Zudem bieten digital konfigurierbare Stromversorgungen mit Betriebsdatenkommunikation eine essentielle Basis für die Entwicklung von Systemen zur Zustandsüberwachung und Anomalie-Erkennung auf Basis von Embedded-KI. ML-basierte Systeme lernen aus historischen Daten, erkennen komplexe Muster in Echtzeit und eignen sich somit hervorragend für die Vorhersage von Anomalien, die Erkennung von Zustandsänderungen und die Optimierung des Energieverbrauchs. Spezifische Anwendungsbeispiele umfassen intelligente Messsysteme die Verbrauchsmuster identifizieren und Anomalien erkennen, sowie prädiktive Wartungssysteme.
Zusätzlich gewinnt das Thema Nachhaltigkeit in der Entwicklung von Embedded-KI zunehmend an Bedeutung. Durch die Auswahl energieeffizienter ML-Algorithmen und die Minimierung der Umweltauswirkungen von Hardwarekomponenten können diese Systeme wesentlich zur Reduktion des CO2-Fußabdrucks beitragen.
12:00 - 13:15
Mittagspause & Networking in der Ausstellung
ML Edge Devices effizient entwickeln
Der Einsatz von Machine Learning (ML) in Embedded Systemen ermöglicht ein neues Anwendungsspektrum. Viele Mikrocontroller eignen sich bereits für ML-Applikationen, aber Entwickler sind unsicher, ob die Rechenleistung und der Speicher ausreicht und der Einsatz einer Neural Processing Unit (NPU) erforderlich ist.
ML-Modelle werden meist unabhängig von der Ziel-Hardware entwickelt. Dieser „Device-Agonistik“ Entwicklungsschritt in einem MLOps System erfordert Schnittstellen zur traditionellen Embedded-Vorgehensweise, da die Peripherie typischerweise zeitkritisch ist und Datenformate für das ML-Modell mit klassischen Software-Algorithmen optimiert werden.
In diesem Vortrag erfahren Sie wie solche Fragen geklärt werden und wie ein ML Entwicklungsprozess mit konventioneller Embedded Software-Entwicklung kombiniert wird.
ML-Modelle werden meist unabhängig von der Ziel-Hardware entwickelt. Dieser „Device-Agonistik“ Entwicklungsschritt in einem MLOps System erfordert Schnittstellen zur traditionellen Embedded-Vorgehensweise, da die Peripherie typischerweise zeitkritisch ist und Datenformate für das ML-Modell mit klassischen Software-Algorithmen optimiert werden.
In diesem Vortrag erfahren Sie wie solche Fragen geklärt werden und wie ein ML Entwicklungsprozess mit konventioneller Embedded Software-Entwicklung kombiniert wird.
Heißer Kaffee mit Gefäßerkennung
Ein häufiges Szenario von Bildverarbeitung mit KI sind Erkennungen und Volumenbestimmungen von Gegenständen oder Gefäßen. Insbesondere in vertraulichen Produktionsumgebungen, aber auch bei Geräten ohne oder mit langsamer Datenanbindung muss dabei die Verarbeitung lokal und offline erfolgen.
Wir präsentieren eine praktische Anwendung eines solchen Szenarios mit einer Umsetzung auf Basis von Computer Vision mit KI-Unterstützung zur präzisen Erkennung und Volumenbestimmung verschiedener Gefäße. Durch die Kombination von KI-Modellen und Embedded-Hardware wird eine effiziente und zuverlässige Lösung geschaffen, die offline eingesetzt werden kann.
Ein zentraler Aspekt des Vortrags ist die Implementierung von KI-Modellen auf embedded Hardware, was eine lokale Echtzeitverarbeitung ermöglicht. Dabei diskutieren wir verschiedene Architekturen und Optimierungstechniken, die erforderlich sind, um die Leistungsfähigkeit der Modelle auf begrenzten Ressourcen zu maximieren.
Ein weiterer Schwerpunkt liegt auf der Verbesserung der Robustheit und Resilienz der KI-Modelle durch das Training mit generierten Bilddaten. Wir stellen unseren Ansatz zur automatisierten Erzeugung von Trainingsdaten vor, der verschiedene Umgebungsbedingungen simuliert, um die Zuverlässigkeit des Systems unter realen Bedingungen zu steigern. Dies erleichtert Veränderungen mit Auswirkungen auf die optischen Verhältnisse erheblich: Austausch oder Positionswechsel der Kameras, Änderungen der Beleuchtungsverhältnisse, oder veränderten Objekten können somit mit erheblich kleinerem Aufwand realisiert werden.
Zusammenfassend bietet dieser Vortrag einen praktischen Einblick in die Konzeption und Implementierung von KI-unterstützter Computer Vision auf embedded Hardware. Wir zeigen die Möglichkeiten und Herausforderungen auf und geben praxisnahe Empfehlungen für eine erfolgreiche Umsetzung.
Wir präsentieren eine praktische Anwendung eines solchen Szenarios mit einer Umsetzung auf Basis von Computer Vision mit KI-Unterstützung zur präzisen Erkennung und Volumenbestimmung verschiedener Gefäße. Durch die Kombination von KI-Modellen und Embedded-Hardware wird eine effiziente und zuverlässige Lösung geschaffen, die offline eingesetzt werden kann.
Ein zentraler Aspekt des Vortrags ist die Implementierung von KI-Modellen auf embedded Hardware, was eine lokale Echtzeitverarbeitung ermöglicht. Dabei diskutieren wir verschiedene Architekturen und Optimierungstechniken, die erforderlich sind, um die Leistungsfähigkeit der Modelle auf begrenzten Ressourcen zu maximieren.
Ein weiterer Schwerpunkt liegt auf der Verbesserung der Robustheit und Resilienz der KI-Modelle durch das Training mit generierten Bilddaten. Wir stellen unseren Ansatz zur automatisierten Erzeugung von Trainingsdaten vor, der verschiedene Umgebungsbedingungen simuliert, um die Zuverlässigkeit des Systems unter realen Bedingungen zu steigern. Dies erleichtert Veränderungen mit Auswirkungen auf die optischen Verhältnisse erheblich: Austausch oder Positionswechsel der Kameras, Änderungen der Beleuchtungsverhältnisse, oder veränderten Objekten können somit mit erheblich kleinerem Aufwand realisiert werden.
Zusammenfassend bietet dieser Vortrag einen praktischen Einblick in die Konzeption und Implementierung von KI-unterstützter Computer Vision auf embedded Hardware. Wir zeigen die Möglichkeiten und Herausforderungen auf und geben praxisnahe Empfehlungen für eine erfolgreiche Umsetzung.
14:15 - 14:45
Kaffeepause & Networking in der Ausstellung
Einsatz neuronaler Netze auf embedded Prozessoren mit integrierter NPU
Neben der Ausführung von künstlicher Intelligenz (KI) in großen Rechenzentren gewinnt auch die Ausführung von KI auf neuronalen Netzen im Gerät an Bedeutung. Gründe hierfür sind die uneingeschränkte Verfügbarkeit, garantierte Antwortzeiten und die Kosten.
In diesem Paper wird beschrieben, wie ein Convolutional Neural Network (CNN) auf einer eingebetteten CPU mit integrierter Neural Processing Unit (NPU) ausgeführt werden kann. Als Beispielapplikation dient die Erkennung von THT-Bauteilen auf einer Platine und die Bewertung ihrer Bestückung vor dem Lötprozess.
Die Implementierung erfolgt auf einem i.MX93 Prozessor von NXP, der neben zwei Cortex-A55 CPUs und einer Cortex-M33 CPU auch eine Ethos-U65 NPU integriert hat. Die Besonderheit ist der Einsatz des asymmetrischen Multiprocessings für die Inferenz, die neben den harten Einschränkungen der embedded NPU eine flexible Ausführung eines Netzwerks bietet.
Ziel der Beispielapplikation ist es, die Herausforderungen und Möglichkeiten von KI-Systemen in eingebetteten Systemen zu analysieren. Dabei wird auf besondere Eigenschaften der Depthwise Seperable Convolution in CNN-Architekturen eingegangen sowie auf Optimierungsmethoden wie die Post-Train Quantisierung. Abschließend werden die Ergebnisse verschiedener Architekturen verglichen und mit typischen Metriken bewertet.
In diesem Paper wird beschrieben, wie ein Convolutional Neural Network (CNN) auf einer eingebetteten CPU mit integrierter Neural Processing Unit (NPU) ausgeführt werden kann. Als Beispielapplikation dient die Erkennung von THT-Bauteilen auf einer Platine und die Bewertung ihrer Bestückung vor dem Lötprozess.
Die Implementierung erfolgt auf einem i.MX93 Prozessor von NXP, der neben zwei Cortex-A55 CPUs und einer Cortex-M33 CPU auch eine Ethos-U65 NPU integriert hat. Die Besonderheit ist der Einsatz des asymmetrischen Multiprocessings für die Inferenz, die neben den harten Einschränkungen der embedded NPU eine flexible Ausführung eines Netzwerks bietet.
Ziel der Beispielapplikation ist es, die Herausforderungen und Möglichkeiten von KI-Systemen in eingebetteten Systemen zu analysieren. Dabei wird auf besondere Eigenschaften der Depthwise Seperable Convolution in CNN-Architekturen eingegangen sowie auf Optimierungsmethoden wie die Post-Train Quantisierung. Abschließend werden die Ergebnisse verschiedener Architekturen verglichen und mit typischen Metriken bewertet.
Press PLAY to OCR – Nicht KI, sondern wie man KI einsetzt, macht den Unterschied
Die optische Zeichenerkennung, kurz OCR (Optical Character Recognition), zählt auch heute noch zu einer der schwierigsten Disziplinen in der Bildverarbeitung und maschinellen Intelligenz. Schon die reine Vielfallt an möglichen Schriftzeichen und Verfahren, wie diese auf verschiedensten Oberflächen angebracht werden, vermittelt eine Vorstellung der Herausforderungen.
Und die Erwartungen an eine OCR sind hoch. Heutzutage gehen Anwender davon aus, dass sie alle Zeichen out-of-the-box erkennt und richtig deutet, ähnlich wie ein Mensch es kann. Daher sind auf Deep-Learning basierende OCR-Systeme auf dem Vormarsch. Ihr Vorteil: Durch variantenreiches Training mit realen und synthetischen Beispieldaten erlernen sie den notwendigen Interpretationsspielraum, der den regelbasierten Ansätzen fehlt.
Der Einsatz modernster Technologie, wieTransformer-Netze oder Large Language Modellen (LLM), wie sie in ChatGPT verwendet werden, könn(t)en solche Vorhersagen und damit auf die Lesequalität zwar positiv beeinflussen, doch sind sie nicht allein ausreichend für den Erfolg eines Systems - vielmehr geht es darum, diese einfach und performant nutzbar und benutzerfreundlich wartbar anzubieten. Denn auch bei Deep-OCR-Systemen ist Qualität, Ausführungsgeschwindigkeit und Benutzerfreundlichkeit alles andere als selbstverständlich.
In unserem Vortrag beleuchten wir anhand des DENKnet OCR-Modells die entscheidenden Faktoren für die Auswahl eines guten OCR-Systems, das schnell und wirtschaftlich ausführbar ist, sichere und robuste Lesequalität bietet und dabei einfach nutzbar und wartbar bleibt.
Und die Erwartungen an eine OCR sind hoch. Heutzutage gehen Anwender davon aus, dass sie alle Zeichen out-of-the-box erkennt und richtig deutet, ähnlich wie ein Mensch es kann. Daher sind auf Deep-Learning basierende OCR-Systeme auf dem Vormarsch. Ihr Vorteil: Durch variantenreiches Training mit realen und synthetischen Beispieldaten erlernen sie den notwendigen Interpretationsspielraum, der den regelbasierten Ansätzen fehlt.
Der Einsatz modernster Technologie, wieTransformer-Netze oder Large Language Modellen (LLM), wie sie in ChatGPT verwendet werden, könn(t)en solche Vorhersagen und damit auf die Lesequalität zwar positiv beeinflussen, doch sind sie nicht allein ausreichend für den Erfolg eines Systems - vielmehr geht es darum, diese einfach und performant nutzbar und benutzerfreundlich wartbar anzubieten. Denn auch bei Deep-OCR-Systemen ist Qualität, Ausführungsgeschwindigkeit und Benutzerfreundlichkeit alles andere als selbstverständlich.
In unserem Vortrag beleuchten wir anhand des DENKnet OCR-Modells die entscheidenden Faktoren für die Auswahl eines guten OCR-Systems, das schnell und wirtschaftlich ausführbar ist, sichere und robuste Lesequalität bietet und dabei einfach nutzbar und wartbar bleibt.
Panel-Diskussion & Wrap-up
Unsere Redakteure, Andreas Knoll und Lukas Steiglechner, werden mit den Experten folgende Themen diskutieren:
• Wie wird sich die KI-Nutzung in der Industrie in absehbarer Zeit entwickeln?
• Welche Hemmnisse gibt es dafür, und wie lassen sie sich beseitigen?
• Wie können Unternehmen mit der KI-Nutzung beginnen?
• Wie wird sich die KI-Nutzung in der Industrie in absehbarer Zeit entwickeln?
• Welche Hemmnisse gibt es dafür, und wie lassen sie sich beseitigen?
• Wie können Unternehmen mit der KI-Nutzung beginnen?