IT-Architekturen im Wandel

IT-Architekturen im Wandel

Digitale Plattformen bieten Unternehmen die nötige Agilität und Flexibilität, um die unternehmenseigene IT-Architektur wirkungsvoll zu gestalten und den Weg der Digitalisierung erfolgreich zu beschreiten. Bisher eingesetzte Standardsoftware erreicht schnell die Grenzen der Flexibilität, wenn aufgrund eines neuen Geschäftsmodells neue Prozesse und  Organisationsstrukturen schnellstmöglich implementiert werden müssen. Über den Innovationsfaktor „Software“ und die richtige IT-Architektur für die Digitalisierung haben wir mit Dr. Wolfram Jost, Chief Technology Officer der Software AG, gesprochen.

Dr. Jost, sind Altsysteme – gerade in geschäftskritischen Bereichen – eine unüberwindbare Hürde auf dem Weg zum digitalen Unternehmen?

Nein, eine Anwendungs- und Technologie-Architektur wird selten von Grund auf neu entwickelt. Im Gegenteil: Ältere Systeme werden oft gebraucht, um zentrale Geschäftsprozesse entscheidend zu unterstützen. Der wesentliche Wert dieser Systeme liegt in der Geschäftslogik, die über viele Jahre entwickelt wurde und häufig einen Differenzierungsfaktor im Wettbewerb darstellt. Der geeignete Ansatz für die Digitalisierung ist daher eine Modernisierung, also ein Facelifting vorhandener Anwendungen. Diese Modernisierung kann sowohl am Front End (User Interface) als auch im Back End (Application Integration) stattfinden.

Wie sieht die Einbindung von traditionellen Systemen aus?

Über offene Programmierschnittstellen lassen sich ältere Anwendungen mit webbasierten, modernen Benutzeroberflächen ausstatten. Eine weitere Chance für digitale Wertschöpfung ist die Integration von traditionellen Applikationen in Cloud- oder mobile Anwendungen. Eine Modernisierung des „Bestands“ führt oft zuverlässiger und effizienter zum Erfolg, als eine bewährte Lösung komplett aufzugeben und durch eine Neuentwicklung zu ersetzen. Diese Neuentwicklungen scheitern in den allermeisten Fällen, weil man das, was man über Jahrzehnte mit viel Know-how entwickelt hat nicht mal „schnell“ neu entwickelt. Dabei handelt es ich hier primär nicht um ein technologisches, sondern vielmehr um ein fachliches Problem. Das domänenspezifische Know-how ist oft nicht mehr im dem Maßen vorhanden, wie es sein müsste, um alles nochmals neu zu entwickeln. Ein weiterer Punkt ist, dass bei solchen Neuentwicklungsprojekten häufig ein „Overengineering“ stattfindet. Es wird versucht, alles was man sich theoretisch vorstellen kann, in das System zu implementieren.

Was genau lässt sich an der genutzten Software ablesen?

Software war und ist DER Innovationsfaktor am Markt und blickt mittlerweile auf eine über 40-jährige Entstehungsgeschichte zurück. In den Anfangsjahren versorgten externe Entwickler Unternehmen mit individuellen, funktionsbezogenen IT-Programmen, die Geschäftsprozesse im Finanz- oder Personalwesen unterstützten. Hardware, Daten und Software waren eine monolithische Einheit. Damals galten Unternehmen als modern und innovativ, wenn sie überhaupt Software nutzten und die Entwicklung erfolgte ausnahmslos individuell für ein Unternehmen. Erstes und einziges Zielsystem war der Großrechner.

Damals beanspruchten Computer noch ganze Räume.

Genau, erst mit der Verkleinerung und „Beschleunigung“ der Hardware und den auf dieser neuen Hardware beruhenden Standardanwendungen fanden die Computer ihren Weg in die Büros. Die Anwendungen wurden von externen Softwareanbietern entwickelt und vermarktet. Softwarepakete von der Stange bedienten nicht mehr nur einzelne Funktionen, sondern mit der Zeit fast sämtliche administrativen Geschäftsprozesse eines Unternehmens. Vorteile waren konsistente Daten, integrierte Geschäftsprozesse, benutzerfreundliche Oberflächen und mehr Wahlfreiheiten bei Hardware und Datenbanksoftware. Durch das Aufkommen des Internets wurde der Browser zum neuen Front End und ermöglichte hierüber den Zugriff auf Geschäftsanwendungen. Damit eröffnete sich ein vollkommen neuer Kommunikations- und Vertriebskanal für Unternehmen, dessen Potenzial wir mit dem Schlagwort E-Business/E-Commerce umschreiben.

Welchen Stellenwert nimmt Software heute ein?

Während bisher Effizienz, Kostenoptimierung und Standardisierung administrativer Geschäftsprozesse im Vordergrund standen, geben digitale Plattformen den Unternehmen heute ihre Innovationsfreiheit zurück: Dank der schnellen Entwicklung und Integration innovativer Anwendungen auf der Basis von plattformbasierten Softwarearchitekturen können sie ganz neue Geschäftsmodelle entwickeln. Die Verbesserung der Customer Experience ist hierbei das Schlagwort. Die Wünsche, Bedürfnisse und das Kauferlebnis der Kunden und Partner stehen heute im Mittelpunkt des Unternehmens. Daten zum Kauferlebnis werden möglichst in Echtzeit analysiert. Deren Rückmeldungen bildet die Basis, um neue, digitale Kundenerlebnisse zu schaffen.

Welche Bausteine sind für eine digitale Plattform erforderlich?

In-Memory Data Stores, Integration, API-Management, Process Automation, Analytics sowie Business Design und IT-Portfolio-Management – das sind die zentralen Softwarebausteine einer digitalen Technologieplattform, die jedes Unternehmen braucht. Alle digitalen Fähigkeiten sind Microservice-orientiert, API-fähig und ereignisbasiert. Eine digitale Plattform bildet das Fundament für die digitale Architektur des Unternehmens. Sie stellt alle zentralen Funktionen und Komponenten bereit, um digitale Architekturen und Applikationen für innovative Anwendungsszenarien zu konzipieren, zu implementieren und zu managen. Damit bestimmen die Unternehmen wieder selbst ihren Innovationszyklus – nicht der Anbieter der Standardsoftware.

Wo liegen die Herausforderungen beim Aufbau einer solchen Architektur?

Zentral für den richtigen Zuschnitt einer Technologiearchitektur sind die von der Anwendung zu verarbeitende Datenmenge, Nutzerzahlen sowie die gewünschte Flexibilität, Performance und Skalierbarkeit. Ein Entwickler läuft stets Gefahr, dass er den Zuschnitt zu groß oder zu knapp dimensioniert. Die Folge können mangelnde Prozessunterstützung, fehlende Agilität und Skalierbarkeit, umständliches Betriebsmanagement und geringe Benutzerakzeptanz sein. Bei jedem Unternehmen ist der Aufbau einer digitalen Arichitektur anders – es gibt kein allgemeingültiges Standardkonzept. Solche Architekturen entstehen auch nicht über Nacht. Sondern sie entwickeln sich über die Zeit.

Gibt es so etwas wie ein Herzstück in einer digitalen Architektur?

Ja, das sind die Integrationstechnologien. In heterogenen und verteilten Architekturen ist Integration eine core capability. Sie dient dem Design, der Implementierung und dem Management von komplexen Integrationsflüssen. Ihre wichtigsten Funktionen sind Routing, Mapping, Transformation, Orchestrierung, Sicherheit und Mediation. Die entwickelten Integrationsflüsse werden als Microservices mit offenen Schnittstellen bereitgestellt, die kleinere Softwaremodule einer größeren, komplexen Integrationsanwendung sind. Sie können unabhängig voneinander implementiert, bereitgestellt, aktualisiert und verwaltet werden.

Digitale Architekturen sind also für Unternehmen das A und O auf dem Weg in die digitale Transformation?

Genau. Die Architektur bestimmt die Skalierbarkeit, Performance, Sicherheit, Wartbarkeit und Flexibilität der digitalen Anwendungen. Zu beachten ist außerdem, dass digitale Architekturen ihren vollen Nutzen nur dann entfalten, wenn die dahinter liegenden fachlichen Anwendungskonzepte differenziert und innovativ sind. Doch mindestens genauso wichtig sind Geschäftsmodellierung und IT-Portfolio-Management. Denn: Ohne zu wissen, was die eigentlichen betriebswirtschaftlichen Zusammenhänge sind und wie man den Übergang vom Ist- zum Soll-Zustand managen kann, wird die digitale Transformation zwangsläufig scheitern.

Mehr zum Thema digitale Transformation lesen Sie hier.

Teilen:
Die richtige Strategie im Asset- und Instandhaltungsmanagement

Die richtige Strategie im Asset- und Instandhaltungsmanagement

Die Digitalisierung der Industrie verändert Strukturen, Prozesse und ganze Geschäftsmodelle von Unternehmen. Auch das Asset- und Instandhaltungsmanagement wird zunehmend komplexer. Verantwortliche müssen deshalb ihre Instandhaltungskonzepte anpassen und verbessern. Wie es nachhaltig gelingt, mit Prognostic Foresight Entscheidungen über den Zustand von Geräten und Maschinen zu treffen, die Auswirkungen auf den Betrieb der gesamten Anlage haben können, zeigen die Software AG und Cassantec AG.

Verantwortlichen stehen zahlreiche Methoden und Werkzeuge zur Verfügung, die ihnen bei der Entscheidungsfindung über ihre Asset-Management- und Instandhaltungskonzepte helfen. Mithilfe von datenbasiertem Condition Monitoring können Instandhaltungsleiter den aktuellen Zustand von Anlagen feststellen. So können sie die Anlagenverfügbarkeit sicherstellen und akute Schäden vermeiden. Dank Predictive Maintenance ist es mittlerweile möglich, den Zustand von Anlagenkomponenten vorherzusagen. Data Scientists verwenden historische Daten von Anlagenteilen, um Machine-Learning-Modelle zu trainieren. Diese Modelle werden dann operationalisiert und idealerweise im Betrieb kontinuierlich mit Sensordatenströmen aufgerufen. Die Auswertung erfolgt in Echtzeit und liefert z.B. Erkenntnisse über die Abweichung vom Regelbetrieb, die ab einer definierbaren Größe als Indikator eines anstehenden Ausfalls herangezogen werden.

Prognostik  ergänzt Big Data-Lösungen

Mit der Cumulocity IoT Plattform der Software AG können Unternehmen IoT-Lösungen schnell und unkompliziert einführen, Sensor-Datenströme überwachen und analysieren sowie Machine-Learning-Modelle und Predictive Analytics anwenden. Entscheider können so IoT-Erkenntnisse mit den Prozessen des Unternehmens kombinieren. Da letztlich allerdings selbst fortgeschrittene prädiktive Analysetools nicht in der Lage sind, explizite Aussagen über die Zukunft abzuleiten,  lässt sich Software AGs Cumulocity IoT Plattform nun um Prognostic Foresight der Cassantec AG ergänzen. Cassantec stellt Entscheidern genaue Zeitfenster mit eindeutigen Risikoprofilen dar und prognostiziert den jeweiligen Zustand kritischer Anlagenteile auf Basis historischer Daten. Die Prognosegenauigkeit ist hierbei wesentlich höher als bei herkömmlichen Methoden. Anhand der Erkenntnisse aus der Prognostik können Betriebs- und Instandhaltungsstrategien verbessert, die Restlebensdauer von Industriekomponenten aktiv gemanagt und erweitert sowie ungeplante Stillstandzeiten reduziert werden.

Voraussetzungen für hochqualitative Prognostik

Die Grundvoraussetzung für Prognostik ist, dass Methoden der künstlichen Intelligenz mit der langjährigen Erfahrung der Ingenieure kombiniert werden. De facto wird die Erfahrung des Wartungsingenieurs digitalisiert und das Unternehmen somit in die Lage versetzt,  Entscheidungen auf Basis transparenter Daten zu treffen, die zuvor auf bloßen Erfahrungswerten beruhten. Die Lösung operationalisiert und dokumentiert dadurch auch vorhandenes Wissen von Experten in Produktionsanlagen.

In sieben Schritten zu Prognostic Foresight

Die Implementierung von Prognostik erfolgt in sieben Schritten.

  • Schritt 1: Verantwortliche wählen die Komponenten aus, für die die Prognostik den größten Nutzen bringen.
  • Schritt 2: Die zehn bis 20 häufigsten Störungsarten des zuvor ausgewählten Komponententyps werden definiert.
  • Schritt 3: Die zur Verfügung stehenden Daten werden gesichtet.
  • Schritt 4: Korrelationen der Daten zu bestimmten Störungsarten werden spezifiziert.
  • Schritt 5: Zustands- und Prozessdaten sowie ergänzende Störungs- und Parameterspezifikationen werden in ein stochastisches Modell eingepflegt, um die Restlebensdauer festzustellen.
  • Schritt 6: Die Plausibilität der Ergebnisse wird überprüft. Falls unplausbilbe Ergebnisse auftauchen, muss gegebenenfalls zu einem vorherigen Schritt zurück gekehrt werden, um den Input zu konfigurieren.
  • Schritt 7: Verantwortliche prüfen, wie sich die derzeitigen Entscheidungsprozesse mit den neuen Erkenntnissen verbessern lassen.

Bessere Entscheidungen dank Prognostik

Im Asset- und Instandhaltungsmanagement sind bisher verwendete Werkzeuge, um Entscheidungen für die richtige Strategie zu treffen, oft unzureichend. Unternehmen müssen nicht die Art und Weise, wie Entscheidungen getroffen werden, ändern.Viel mehr sollten sie die Werkzeuge, die für diese Entscheidungen heran gezogen werden, optimieren. Mit Prognostic Foresight steht den Unternehmen eine integrierte Plattform zur Verfügung, die alle Anforderungen von zeitbasierter und zustandsbasierter Instandhaltung abdeckt.

Mehr zur Partnerschaft der Software AG und Cassantec AG erfahren Sie hier.

Teilen:
Data Lakes: Stille Wasser sind tief

Data Lakes: Stille Wasser sind tief

Letztes Jahr etablierte die Software AG einen Wissenschaftlichen Beirat. Das Gremium bietet der Software AG durch seine wissenschaftliche Perspektive wertvolle Impulse für (potenzielle) neue Technologietrends. In dieser Artikel-Serie beleuchten die Experten ihre Forschungsgebiete und geben einen kurzen Ausblick, wie sich diese künftig entwickeln werden. Prof Dr. Jens Dittrich befasst sich am Lehrstuhl Information Systems Group der Universität des Saarlandes mit den Themen Datenbanken, Data Management und Big Data.

Traditionell werden Geschäftsdaten in hochstrukturierten relationalen Datenbanken und speziellen Analysesystemen wie Data Warehouses gespeichert. Mit dem Aufkommen von Big Data wird es jedoch immer schwieriger, all diese Daten über Datenbanken oder No-SQL-Systeme zu verwalten und zu analysieren.

Prof. Dr. Jens Dittrich

„Data Lakes“ erfassen deshalb alle Daten eines Unternehmens in einem zentralen Speicher als Rohdaten, ohne sie vorher zu schematisieren oder anderen Datenbereinigungs- oder Datenimport-Operationen zu unterziehen. Solche Operationen werden erst in einem zweiten Schritt vorgenommen. So bleibt die Flexibilität für Datenabgleich und -analyse gewahrt.

In der Regel sind Data Lakes technisch als verteilte Dateisysteme (wie HDFS) implementiert und umfassen alle Daten eines Unternehmens. Für alle weiteren Analysen wie strukturierte Abfragen, Data-Mining, traditionelles Maschinenlernen oder Deep Learning findet eine Strukturierung nach Bedarf statt. Beispielsweise werden mithilfe entsprechender Workflows und Tools die Rohdaten im Data Lake schrittweise interaktiv gefiltert, bereinigt und angereichert, um klare und eindeutige Informationen zu erhalten. Im Gegensatz zu relationalen Datenbanksystemen – denen die Daten fest zugeordnet sind – werden die Daten in einem Data Lake nicht notwendigerweise einem bestimmten Tool oder System zugeordnet.

Der Grundgedanke des Data Lakes ist vergleichbar mit dem Konzept eines „Dataspaces”, in den im Lauf der Zeit Daten aus unterschiedlichen Quellen integriert werden. Data Lakes passen sehr gut zu den explorativen Workflows von Datenwissenschaftlern, die Daten eher selten in relationalen Datenbanksystemen verwalten.

Lesen Sie hier alle weiteren Beiträge des Wissenschaftlichen Beirats der Software AG:

Teilen:
Künstliche Intelligenz treibt die zweite Welle der Digitalisierung

Künstliche Intelligenz treibt die zweite Welle der Digitalisierung

Letztes Jahr etablierte die Software AG einen Wissenschaftlichen Beirat. Das Gremium bietet der Software AG durch seine wissenschaftliche Perspektive wertvolle Impulse für (potenzielle) neue Technologietrends. In dieser Artikel-Serie beleuchten die Experten ihre Forschungsgebiete und geben einen kurzen Ausblick, wie sich diese künftig entwickeln werden. Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster ist Professor für Informatik an der Universität des Saarlandes sowie technisch-wissenschaftlicher Direktor und Vorsitzender der Geschäftsführung des Deutschen Forschungszentrums für Künstliche Intelligenz. Er beschäftigt sich mit den Themen Künstliche Intelligenz, Computerlinguistik, Semantische Technologien, intelligente Benutzerschnittstellen, Industrie 4.0 und Fahrerassistenzsysteme.

Durch Maschinenlernen werden digitale Massendaten inhaltlich analysiert und zu Informationen von hohem Nutzen verdichtet. Dank Deep Learning wurde das Bild- und Sprachverstehen auf Basis mehrschichtiger neuronaler Netzwerke zuverlässiger, schneller und robuster.

Auch die tiefe Analyse von Datenströmen ist in Echtzeit möglich: Störungen und Fehlfunktionen, Bedrohungen durch Cyberkriminelle oder die Notwendigkeit des steuernden Eingriffs menschlicher Experten im IoT werden dank des Fortschritts unmittelbar erkannt. Mithilfe von KI verstehen Computer die Sprache und Ziele der Nutzer immer besser und werden so zu Dialogpartnern oder gar digitalen Assistenten.

Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster

Als einer der Industriepartner des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), dem weltweit größten Exzellenzzentrum auf diesem Gebiet, hat die Software AG Zugang zu den neuesten Forschungsergebnissen im Bereich KI. Diese nutzt sie, um ihre Plattformen stets mit den leistungsfähigsten KI-Algorithmen zu aktualisieren.

Auch in der digitalen Geschäftsplattform ADAMOSsind Verfahren zum Maschinenlernen, zur Datenstrom-Analytik, zur prädiktiven Analyse und zur Prozessautomatisierung durch Softbots (RPA) bereits integriert. Die standardisierte Markierungssprache PMML sichert dabei die Interoperabilität der selbsterlernten KI-Modelle.

Ohne den massiven Einsatz von KI-Technologien ist die im Jahre 2010 von mir erstmals definierte Zielsetzung von Industrie 4.0 nicht realisierbar. Denn die vierte industrielle Revolution basiert auf Durchbrüchen der KI-Forschung, welche die enge Kollaboration von Teams aus Facharbeitern und Robotern, die Steuerung der Produktion durch das entstehende Produkt und die kostengünstige cyber-physische Fertigung geringer Losgrößen und damit personalisierter Produkte ermöglicht.

Lesen Sie hier alle weiteren Beiträge des Wissenschaftlichen Beirats der Software AG:

Teilen:
Künstliche Intelligenz gewinnbringend einsetzen

Künstliche Intelligenz gewinnbringend einsetzen

Es wird Zeit, dass die Big-Data-Jongleure liefern. Banken und Finanzinstitute haben Datenwissenschaftler mit Millionen von Dollar überschüttet, damit sie in der Flut digitaler Informationen Muster finden. Jetzt müssen die Unternehmen Maßnahmen ergreifen, damit sich diese neu entdeckten Informationen auszahlen. Fragt sich nur, welche?

Big Data – die Bits und Bytes, die in einer immer stärker digitalisierten Welt entstehen – wurden als die Grundlage einer neuen Finanzarchitektur gerühmt. Predictive Analytics, Maschinenlernen und künstliche Intelligenz (KI) wurden als die Instrumente zur Verwirklichung dieses Ziels angepriesen.

Aber abgesehen von den Händlern, die Kunden mithilfe von Predictive Analytics bei ihren Entscheidungsprozessen unterstützen, einigen Robo-Advisory Diensten und einer Handvoll von KI gemanagter Fonds, haben Finanzinstitute noch keine Wege gefunden, wie sie ihre prall gefüllten Datenbanken gewinnbringend nutzen können.

Die neuen datengestützten Erkenntnisse sind hilfreich, aber es ist schwierig, sie im operativen Betrieb zu nutzen und zu monetisieren. Grundsätzlich geht es um die Frage, wie der Finanzsektor die gesammelten Daten einsetzen kann, um klügere Entscheidungen zu treffen.

Es gibt besorgniserregende Anzeichen, dass Manche im Big-Data-Versprechen nicht viel mehr als einen Hype sehen. Chiron Investment Management ist einer der Hedge-Fonds, die Zweifel daran anmelden, ob datengestützte Investitionsstrategien wie Smart Beta wirklich mehr Gewinn bringen als traditionelle Verfahren. Andere Vermögensverwalter überlegen, ob man zu viel Vertrauen darauf gesetzt habe, dass Big Data neue Märkte schaffen kann.

Big Data zum Aktivposten machen

Aber es gibt auch Investmentfirmen wie Vanguard und Blackrock, die stark in Robo-Advisory-Plattformen investieren. Die Tokioter Börse gehört zu der steigenden Zahl von Marktbetreibern, die KI einsetzten, um unlautere Handelspraktiken aufzudecken.

Ob nun der Nutzen von Big Data im Finanzsektor überbewertet wird oder nicht – nur Wenige bezweifeln, dass Datenwissenschaftler in der Flut von Informationen, die sie erhalten, Erstaunliches zu Tage fördern werden. Dies wiederum wird zahlreiche neue Chancen eröffnen:

  • Unternehmen erhalten bessere Informationen darüber, wie ihre Kunden ticken und können Produkte entsprechend personalisieren
  • Predictive Analytics stellt die Marktauswirkungen von Handelstransaktionen fest und hilft Unternehmen, durch verbesserte Transaktionsstrategien ihre Alpha-Kennziffer zu halten
  • Maschinenlernen ermöglicht eine intelligentere automatische Abwicklung (Straight-Through Processing, STP) von Transaktionen, hilft, ungewollte Abweichungen zu vermeiden, und trägt so zur Verbesserung und Rationalisierung des operativen Betriebs bei
  • Aggregierte Daten geben Hinweise auf neue Umsatzquellen und unterstützen Asset-Manager bei der Suche nach neuen Investitionsstrategien
  • Natural Language Processing automatisiert den Workflow aus schriftlichen Regeln und Vorschriften und hilft Unternehmen, die Regulierungsflut zu meistern

Die Datenflut mittels Plattform managen

Damit Big Data funktioniert, brauchen Unternehmen die richtigen Plattformen, um ihre Ideen schnell umzusetzen und in ihre operativen IT-Systeme integrieren zu können. Ebenso wichtig ist es, diese Prozesse zukunftssicher zu machen. Der Datenstrom wird nicht versiegen, sondern immer wieder neue, großartige Erkenntnisse hervorbringen. Deshalb muss die Plattform, für die sich ein Unternehmen entscheidet, flexibel und anpassbar sein und schnell auf veränderte Muster und eine veränderte Datenkomplexität reagieren können.

Traditionelle quantitative und systematische Hedge-Fonds wie Two Sigma und Winton beginnen bereits, basierend auf „Deep-Learning“-Systemen experimentelle Fonds zu entwickeln, die die neuronalen Netze des menschlichen Gehirns nachbilden sollen. In beiden Fällen brauchen die Netzwerke Zeit, um genügend Daten verarbeiten zu können und anhand von Rechenoperationen Investmententscheidungen zu treffen.

Schon viel zu lange sieht es so aus, als ob Big Data die Antwort auf eine schwierige Frage sei, die keiner gestellt hat. Nur mit der richtigen Plattform wird sich das Potenzial von Big Data zeigen, und zwar schon sehr bald.

Interessiert? Erfahren Sie hier mehr über unsere KI-Angebote.

Teilen: