Edge-Analytics: IoT am Wendepunkt

Edge-Analytics: IoT am Wendepunkt

Das IoT steht an einem Wendepunkt: eine Vielzahl an Daten wird zwar heute von Geräten und Sensoren erfasst, bleibt aber häufig ungenutzt. Warum? Weil niemand sie versteht! Zum Teil liegt dies daran, dass IoT-Daten, insbesondere IIoT-Daten, auf zentralen Servern erfasst werden. Diese Server liegen meist in der Cloud oder gehören zu einem internen Datensystem. Das führt bei Herstellern, die Echtzeit-IIoT-Daten aus Geräten und Sensoren analysieren müssen, zu Verzögerungen und zusätzlicher Komplexität.

Edge-Analytics schafft hier Abhilfe, weil sie Daten dort analysiert, wo sie entstehen – an der Anlage selbst. So müssen keine vernetzten Cloud- oder Serverdaten durchsucht werden, wodurch die Latenz sinkt und wiederum die Sicherheit steigt.
Edge-Analytics eignet sich perfekt für Hersteller, die von IIoT-Sensoren erzeugte Daten oder Produktionsdaten analysieren und ohne Zeitverzögerung auf diese riesigen Datenmengen reagieren müssen. Edge-Analytics verkürzt Reaktionszeiten und verbessert die Datensicherheit, insbesondere in Produktionsanlagen, die einen kontinuierlichen Datenstrom erzeugen, der für Angriffe anfällig ist. Hersteller, die Edge-Analytics-Prozesse in ihren IIoT-Programmen implementieren, profitieren aber auch von einigen anderen Vorteilen.

Verminderung von Netzwerkunterbrechungen und erhöhte Datenmobilität
Edge-Technologie beseitigt bei Fertigungsanlagen und Produktionszentren mögliche Risiken durch Ausfälle und Probleme mit der Netzwerkverbindung. Edge-Analytics-Systeme funktionieren auch dort, wo die Verbindung zur Cloud eingeschränkt oder nicht dauerhaft aufrechterhalten werden kann.

Echtzeit-Entscheidungen
Edge-Analytics kann Daten in Sekundenbruchteilen verarbeiten. Hersteller hochentwickelter Elektronik, spezieller Komponenten oder Robotertechnik, um nur einige Beispiele zu nennen, haben nur ein sehr kleines Zeitfenster, um Probleme zu erkennen, Daten zu analysieren und tatsächlich einen Nutzen daraus zu ziehen. Damit Entscheidungen schnell gefällt werden können, müssen IIoT-Geräte und Sensoren in der Lage sein, Daten direkt am Ort ihrer Entstehung zu analysieren, ohne sie zuerst in die Cloud zu übertragen.

Rechenleistung vor Ort
Viele IIoT-Sensoren und -Geräte dürfen aus produktionstechnischen Gründen eine bestimmte Größe nicht überschreiten. Edge-Analytics-Hardware ist leichtgewichtig und robust und damit ideal geeignet für den Einsatz in produzierenden Anlagen, Lagern und ähnlichen Einrichtungen. So entsteht eine Umgebung, in der ohne umfangreiche Rechnerleistung auf Geräteebene Entscheidungen schnell und sicher getroffen werden können. Durch diese Verarbeitung der Daten am Entstehungsort werden die Zuverlässigkeit von Entscheidungen und Verfügbarkeit der vollen Rechenleistung gewährleistet.

Neue Anforderungen an Speicherplatz und Sicherheit
Die Anzahl der Sensoren- und Endgeräte in IIoT-Fertigungseinrichtungen, die immer mehr Daten produzieren, steigt stetig. Entsprechend müssen Betriebe einerseits ausreichend Speicherplatz zur Verfügung stellen und andererseits gewährleisten, dass die Daten in den unterschiedlichen Umgebungen abgesichert werden. Beschränkt man den Datentransfer auf einen Schritt, anstatt die Daten in mehreren Schritten an einen Server oder die Cloud zu übertragen, verringert sich auch die Angriffsfläche für Hacker.
Die Integration von Edge-Analytics in der Fertigungsindustrie ist vergleichbar mit der Einführung eines IoT-Systems. Empfehlenswert ist, mit einem System einzusteigen, das Warnmeldungen ausgibt, wenn beispielsweise an einer Maschine bestimmte Schwellenwerte erreicht werden. Diese Meldungen sollten für Produktionsingenieure, Produktmanager und Servicetechniker schnell und leicht verständlich sein, um den Einstieg zu erleichtern. An die Stelle eines proaktiven IIoT-Ansatzes tritt mit Edge-Analytics ein wirklich prädiktives Modell für Datenerfassung und -analyse.

Live erleben Sie Edge Analytics auf einem der sechs Stopps unserer Innovation Tour 2019 – wir freuen uns auf Sie!

Melden Sie sich noch heute an!

Teilen:
Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz ist derzeit in aller Munde. Analysten sagen der neuen Technologie enormes Potenzial für die Wirtschaft voraus. Unternehmen quer über alle Branchen hinweg setzen sich mit den Möglichkeiten von maschinellem Lernen und automatisierten Entscheidungen auseinander. Doch die Umsetzung wird vor allem durch eines ausgebremst: den Fachkräftemangel.

Wenn man sich die Masse an Medien- und Social-Media-Meldungen zum Thema KI ansieht, scheint künstliche Intelligenz heute nahezu allgegenwärtig. Produktankündigungen, Forschungsergebnisse und Artikel, die sich mit den Möglichkeiten von KI auseinandersetzen, überfluten den Markt. Im privaten Alltag findet KI bereits große Akzeptanz. So zeigt eine aktuelle Studie des Branchenverbandes Bitkom, dass drei Viertel der befragten Bundesbürger KI-basierte Empfehlungen für optimale Reiseverbindungen gut finden, und 69 Prozent freuen sich, wenn bei der Internetsuche dank künstlicher Intelligenz die besten Ergebnisse ganz oben stehen.

KI ist in der Praxis angekommen

Auch im Unternehmensumfeld rauchen derzeit viele Köpfe, wie man am besten von KI profitieren kann. Über alle Branchen hinweg gibt es bereits zahlreiche Anwendungen. In der Industrie optimieren selbstlernende Algorithmen zum Beispiel mit vorausschauender Wartung die Produktion. Im Banken- und Versicherungsumfeld helfen intelligente Systeme dabei, Betrugsfälle in Echtzeit aufzudecken und zu vermeiden. Und in der Automobilbranche entwickeln die Hersteller mit Hochdruck das autonome Fahren. Laut einer aktuellen IDC-Studie hat ein Viertel der deutschen Unternehmen bereits KI-Projekte umgesetzt, und 69 Prozent planen dies in den nächsten zwölf Monaten. Den Analysten zufolge werden die weltweiten Ausgaben für künstliche Intelligenz und Machine Learning bis 2020 auf über 40 Milliarden US-Dollar steigen.

Warum diese Begeisterung? Die Antwort liegt auf der Hand: Künstliche Intelligenz und maschinelles Lernen bieten Unternehmen die Möglichkeit, das Potenzial ihrer Daten erst richtig auszuschöpfen. Denn mit dem Internet der Dinge wächst die verfügbare Datenmenge ins Unendliche. Es reicht jedoch nicht aus, Informationen einfach nur zu sammeln, man muss sie auch in Wissen verwandeln. Um dies bei der wachsenden Datenflut zu meistern, kommen selbstlernende Algorithmen ins Spiel.

Fachkräftemangel als größte Herausforderung

Künstliche Intelligenz ist allerdings kein Selbstläufer. Damit sie überhaupt erfolgreich sein kann, braucht sie nicht nur Hochleistungs-Technik, sondern auch Menschen. Unternehmen benötigen Data Scientists, die geeignete Datenquellen für eine Fragestellung identifizieren und die Analysen vorbereiten. Sie müssen unter anderem passende analytische Modelle erstellen, Tools auswählen und interdisziplinär über den Tellerrand hinausschauen. Außerdem sind Data Engineers gefragt, die die Daten bereinigen, aufbereiten und analysefähig machen.

Doch solche Fachkräfte sind Mangelware und auf dem Markt heiß begehrt. Laut der bereits oben erwähnten IDC-Studie fehlt es in mehr als 80 Prozent der befragten Unternehmen an geeigneten Spezialisten. Händeringend gesucht werden Data Scientists, Entwickler, Datenbank-Manager, Business-Analysten sowie Trainer. Zwar gibt es an deutschen Universitäten bereits zahlreiche Studiengänge mit dem wohlklingenden Abschluss Data Scientist, doch bis diese Absolventen auf den Arbeitsmarkt kommen, dauert es noch einige Zeit. International sieht es nicht viel besser aus. McKinsey beispielsweise prognostiziert, dass bis 2024 alleine in den USA 250.000 Data Scientists fehlen werden.

Keine Zeit zu verlieren

Unternehmen sollten sich daher nicht nur darauf konzentrieren, neue Fachkräfte zu rekrutieren. Genauso wichtig ist es, Mitarbeiter weiter zu qualifizieren und fehlendes Know-how aufzubauen. Die Bitkom Akadmie bietet z.B. hierfür seit Kurzem in Zusammenarbeit mit dem Deutschen Forschungszentrum für KI (DFKI) den bundesweit ersten Zertifikatslehrgang „Ausbildung zum KI-Manager“. Außerdem können Unternehmen durch Zusammenarbeit mit externen Spezialisten Know-how-Lücken schließen. Denn eines ist klar: Abwarten ist keine Lösung. Im internationalen Vergleich liegt Deutschland im KI-Bereich nur im Mittelfeld, so die IDC-Studie. Es wird also höchste Zeit, mit der Aufholjagd zu beginnen.

Hier erfahren Sie mehr über die KI-Angebote der Software AG.

Teilen:
Die Transformation der Software-Architektur für das IoT

Die Transformation der Software-Architektur für das IoT

Letztes Jahr etablierte die Software AG einen Wissenschaftlichen Beirat. Das Gremium bietet der Software AG durch seine wissenschaftliche Perspektive wertvolle Impulse für (potenzielle) neue Technologietrends. In dieser Artikel-Serie beleuchten die Experten ihre Forschungsgebiete und geben einen kurzen Ausblick, wie sich diese künftig entwickeln werden. Prof Dr. Reinhard Schütte leitet den Lehrstuhl für Wirtschaftsinformatik und integrierte  Informationssysteme der Universität Duisburg-Essen und befasst sich mit den Themen Enterprise Systems, IS-Architekturen, Digitalisierung von Institutionen, Informationsmodellierung sowie wissenschaftstheoretische Probleme der Wirtschaftsinformatik.

Die Objekte der realen Welt und die informationstechnischen Objekte, die Gegenstand von Informationssystemen sind, wachsen stetig zusammen. Diese Entwicklung, die sich in vielen Schlagwörtern der Digitalisierung wie Smart Homes, Smart Cities, Smart Cars etc. ausdrückt und unter dem Rubrum „Internet of Things“ subsumiert wird, stellt softwarearchitektonische Herausforderungen an die Institutionen, die diese smarten Objekte miteinander über eine Softwarearchitektur verbinden möchten. Im Gegensatz zu traditionellen, auch als monolithisch bezeichneten Architekturen mit der gemeinsamen Nutzung von Soft- oder Hardwareressourcen wird bei dem Anwendungsszenario verteilter Objekte eine hohe Unabhängigkeit der gemeinsam genutzten Ressourcen erforderlich. Ein aktuell besonders erfolgversprechender Architekturansatz für verteilte Anwendungen ist der auf Microservices basierende Architekturstil.

„Services“ sind Softwareprogramme, die eine dedizierte betriebswirtschaftliche oder technische Aufgabe unterstützen. Microservices können als eine Radikalisierung des „Service-oriented Computing“ verstanden werden. Softwaresysteme werden über Microservices quasi atomisiert, indem sie kohäsive und unabhängige Prozesse in Softwarekomponenten abbilden, die nur über Nachrichten miteinander interagieren. Eine Microservice-Architektur ist für verteilte Applikationen konzipiert, in der die einzelnen Komponenten Microservices sind.

Prof. Dr. Reinhard Schütte

Die Unabhängigkeit der Microservices voneinander und die Fokussierung auf die Funktionen oder Prozesse, die der Aufgabenrealisierung dienen, bilden die Vorteile dieses Architekturstils. Die unabhängige Konzeption, das unabhängige Design und die unabhängige Entwicklung werden beispielsweise durch die Nutzung dedizierter Datenbanken für einen Service gefördert. Damit sind die Wartung, Weiterentwicklung, der Test und der Betrieb von Softwaresystemen nicht so engen Integrationsrestriktionen unterworfen wie dies bei monolithischen Ansätzen der Fall ist.

Bei den unter Internet of Things diskutierten Problemen werden dezentrale Objekte mit vielfältigen Daten, unter anderem von Sensoren oder Aktoren, bereitgestellt und einer dezentralen softwaretechnischen Steuerung der Objekte konnektiert. Die verteilte Entwicklung und Weiterentwicklung der Software ist in diesem Innovationsumfeld nicht durch eine zentrale Koordination realisierbar. Es bedarf diverser technisch motivierter Plattformvorgaben, unter anderem die Konnektivität, die Sicherheit und die Visualisierung betreffend. Eine semantische Vereinheitlichung der Domäne erscheint zentral vor dem Hintergrund der geforderten Realisierungsgeschwindigkeit jedoch nicht möglich zu sein.

Die Diskrepanz zwischen der faktischen Software- und einer Microservice-basierten Architektur stellt in der Regel ein Transformationsproblem für die Unternehmen dar. Software-Architekturansätze wie ADAMOS als IoT-Plattform bieten hier eine softwaretechnische Möglichkeit, um die Forderung nach einer agilen Softwareentwicklung auf Basis einer die erforderlichen Dienste bereitstellenden Plattform zu erfüllen.

Lesen Sie hier alle weiteren Beiträge des Wissenschaftlichen Beirats der Software AG:

Teilen:
Ende-zu-Ende-Modellierung von Smart Ecosystems

Ende-zu-Ende-Modellierung von Smart Ecosystems

Letztes Jahr etablierte die Software AG einen Wissenschaftlichen Beirat. Das Gremium bietet der Software AG durch seine wissenschaftliche Perspektive wertvolle Impulse für (potenzielle) neue Technologietrends. In dieser Artikel-Serie beleuchten die Experten ihre Forschungsgebiete und geben einen kurzen Ausblick, wie sich diese künftig entwickeln werden. Prof Dr.-Ing. habil. Peter Liggesmeyer befasst sich als Leiter des Fraunhofer-Instituts IESE und als Leiter der Arbeitsgruppe “Software Engineering: Dependability” der Technischen Universität Kaiserslautern mit den Themen Qualitätssicherung und Qualitätsmanagement, Objektorientierte Entwicklungsmethoden für technische Software, Softwarequalität in technischen Systemen, Sicherheit, Zuverlässigkeit und Verfügbarkeit.

Prof. Dr.-Ing. habil. Peter Liggesmeyer

„Smart Ecosystems“ sind heterogene Systeme, die ehemalige Insellösungen für die Steuerung von Geschäftsprozessen (IT-Systeme) und technischen Prozessen (eingebettete Systeme) aufbrechen und als integrierte Gesamtlösung ganzheitlich nutzbar machen. Die daraus resultierenden Systeme sind umfangreich, heterogen, offen und verändern sich zur Laufzeit autonom. Menschen sind nicht oder nur eingeschränkt in der Lage, in diese Systeme steuernd einzugreifen, weil es ihnen an Übersicht oder auch Reaktionsgeschwindigkeit mangelt oder unwirtschaftlich wäre. Die Systeme müssen im Wesentlichen autonom agieren und dabei Qualitätseigenschaften – beispielsweise Safety – beachten. Als Grundlage für autonome Entscheidungen müssen ihnen geeignete Modelle zur Verfügung stehen, die aufgrund ihrer dynamischen Veränderlichkeit anders beschaffen sein müssen als die Systemmodelle, die aktuell Stand der Technik sind. Sie müssen durch die Systeme selbst zur Laufzeit ausgewertet werden können, um etwa zu entscheiden, ob eine neue Systemkonfiguration sicher ist. Derartige Fragestellungen haben bisher Menschen zur Entwicklungszeit von Systemen entschieden mit der Konsequenz, dass eine geeignete Konfiguration während des Betriebs nicht verändert werden durfte.

„Smart Ecosystems“ benötigen umfassende Modellierungsansätze insbesondere zur autonomen Handhabung der dynamischen Aspekte. Es ist zu entscheiden, welche Aspekte entweder stabil oder wichtig genug sind, um sie vollständig zu modellieren. Die Modelle müssen darüber hinaus mit der naturgemäßen Unsicherheit umgehen können.

Als solide Basis für derartige Lösungen bilden sich zunehmend Plattformen heraus, die Interoperabilität sicherstellen, wie etwa die IIoT-Plattform ADAMOS oder die BaSys4.0-Plattform für Industrie 4.0, die derzeit in einem vom Fraunhofer IESE geleiteten und vom Bundesministerium für Bildung und Forschung finanzierten Projekt konzipiert wird. Es ist zu erwarten, dass Plattformen und umfassende, dynamische Modellierungsansätze für die Realisierung der zukünftigen „Smart Ecosystems“ eine wichtige Rolle spielen werden.

Lesen Sie hier alle weiteren Beiträge des Wissenschaftlichen Beirats der Software AG:

Teilen:
Software-Robots versus API – wer macht was?

Software-Robots versus API – wer macht was?

Die Analysten von Gartner und andere Experten gehen davon aus, dass Robotic Process Automation (RPA) in den kommenden Jahren erheblich dazu beitragen wird, dass Prozesskosten gesenkt, Tippfehler reduziert, Abläufe beschleunigt und Applikationen besser integriert werden. In einem früheren Blogbeitrag haben wir uns mit der Frage beschäftigt, was RPA ist. In diesem Beitrag definieren wir mögliche Einsatzszenarien und decken auf, welche Abläufe mithilfe dieser Technologie optimiert werden können.

Die Software AG beschäftigt sich seit vielen Jahren mit der Analyse, Optimierung und Automatisierung von Prozessen. Allerdings liegt der Schwerpunkt heute weniger auf den APIs der zu automatisierenden Systeme, sondern auf deren Benutzeroberfläche. Viele Aufgaben können auch weiterhin nur durch API-Calls automatisiert werden, andere nur durch RPA-Scripte. Darüber hinaus gibt es Aufgabenstellungen, bei denen beide Ansätze in Kombination zu einer guten Lösung führen. Die Anwender haben dann die Wahl und können die für sie am besten passende Option auswählen. Deshalb wurde die Digital Business Platform der SAG um RPA-Fähigkeiten erweitert. In Partnerschaft mit Kryon Systems, einem Anbieter innovativer, intelligenter RPA-Lösungen, stellt die Software AG nun die komplette Technologie für alle Varianten der Prozess-Automatisierung und -Optimierung zur Verfügung.

Integration zweier Ansätze

Wenn es um Performance und Skalierung geht, wird weiterhin der Weg über die Programmier-Schnittstellen der einzig richtige sein. API-Calls benötigen in der Regel nur einen Bruchteil der Rechenleistung, die für Benutzer-Interaktion auf UI-Ebene notwendig ist. Insbesondere mehrere Rückgabewerte skalieren nur über APIs. Will man beispielsweise in einem Genehmigungsverfahren Informationen aus verschiedenen Systemen zusammentragen und in einzelnen Feldern anzeigen, lassen sich die dafür notwendigen Zugriffe direkt auf der Datenbank oder via API-Call in Sekundenbruchteilen ausführen und bereitstellen. Eine Anmeldung auf UI-Ebene in diversen Systemen, gefolgt von der Navigation zu den jeweils gesuchten Stellen und eine Übernahme der Daten würde selbst in einem RPA-automatisierten Vorgehen ein Vielfaches an Zeit und Systemressourcen erfordern.

Auch wenn ein Anwender etwa die Verfügbarkeit und Preise von Flügen oder Hotels bei diversen Anbietern in deren jeweiligen Info- und Buchungssystemen sucht, ist der Weg über Programmier-Schnittstellen unschlagbar schnell. Im Vergleich würden RPA-Robots dafür einige Minuten brauchen. Geht es jedoch darum, die Kennzahl eines gefundenen Angebots in das Buchungssystem der Airline oder Hotelkette zu übernehmen, ist RPA eine wertvolle Hilfe.

Robots lernen von IT-Experten

Die Zielgruppe beider Optimierungsverfahren ist unterschiedlich. Ein BPMS wie die Digital Business Platform wendet sich primär an IT-Experten und unterstützt IT-affine Nutzer dabei, Prozesse in den Fachabteilungen zu optimieren. RPA-Systeme zielen in der Regel auf die Mitarbeiter der Fachabteilungen, werden aber erfahrungsgemäß nur von Prozess-Experten mit IT-Know-How ideal genutzt. Verfügt ein Anwender über zu wenig oder keine IT-Erfahrung, kann er das Potenzial nicht voll ausschöpfen. Deshalb sollten Robots von IT-Experten trainiert werden. Das Ergebnis erfolgreicher BPMS-Prozesse und idealer RPA-Scripte ist dasselbe: optimal automatisierte Prozesse mit Einsparungen bei Zeit und Aufwand sowie einer geringen Fehlerrate. Jedoch kommt kein Ansatz ohne den jeweils anderen aus. In den meisten Fällen ist die Mitarbeit der IT-Abteilung und ihrer Fachleute sinnvoll und erforderlich.

Der aktuelle Hype um RPA erklärt sich aus der hohen Reife der angebotenen Systeme und dem großen Optimierungspotenzial, das sich daraus ergibt. Die Leistungsmöglichkeiten sind groß, jedoch ist Dunkelverarbeitung auf Programmebene nötig. Klassische BPM-Methoden für die Dunkelverarbeitung und neue RPA-Verfahren für Prozessschritte auf der Oberfläche ergänzen sich sehr gut, denn sie überlagern sich kaum und bieten in Kombination die ideale Hilfestellung fürs Büro.

Wenn Sie mehr über das RPA-Angebot der Software AG erfahren möchten, klicken Sie hier

Teilen: