Vernetzte Wagons – Alles im Griff mit Cumulocity IoT

Vernetzte Wagons – Alles im Griff mit Cumulocity IoT

Interview mit Martin Zsifkovits, Senior Solution Manager Innovations bei Rail Cargo Austria AG

Herr Zsifkovits, Sie sind Senior Solution Manager Innovations bei Rail Cargo Austria, der Güterverkehrssparte der Österreichischen Bundesbahnen (ÖBB). Können Sie uns erzählen, welches Projekt Sie bei der InnovationTour vorgestellt haben?

Zsivkovits: Sehr gern! In meiner Rolle bei der RCA kümmere ich mich derzeit unter anderem um das Projekt „Smart Cargo”, das wir gemeinsam mit A1 Digital umsetzen. Gemeinsam mit meinem Kollegen Francis Cepero, Director Vertical Market Solutions bei A1 Digital, durfte ich auf dem Münchner Stopp der InnovationTour also vorstellen, was wir in dem Bereich bereits auf die Schiene bringen konnten.

Das klingt spannend! Können Sie genauer darauf eingehen, worum es bei „Smart Cargo” geht?

Zsivkovits: Die Herausforderungen, denen wir uns im Güterverkehr auf dem Schienenweg im Vergleich zur Logistik auf der Straße ausgesetzt sehen, sind vielfältig: Geringe Flexibilität, starke gesetzliche Regulierung in vielerlei Hinsicht und damit verbunden steigende Kosten. Um dem entgegenzuwirken und den Schienengüterverkehr effizienter zu gestalten, stattet A1 Digital im Rahmen des Projekts „Smart Cargo” in einem ersten Schritt aktuell rund 13000 Güterwaggons der Rail Cargo Austria mit Telematikgeräten aus. Diese energieautarken Geräte, die mindestens sechs Jahre ohne Stromversorgung auskommen, verfügen über eine Sensorik, die es erlaubt, Position sowie Bewegungen zu erkennen. Mithilfe der Telematik wird es also möglich, umfassende Daten wie beispielsweise den Standort der ausgestatteten Wagons in Echtzeit zu ermitteln. Diese Ausstattungsoffensive soll bis 2020 abgeschlossen sein. Parallel dazu wird daran gearbeitet die Daten zu verwerten um den Güterverkehr auch tatsächlich smart zu machen.

Ich kann mir vorstellen, dass dies enormes Potenzial für die Vernetzung des Frachtverkehrs im Generellen bietet.

Zsivkovits: Sie haben Recht, die fortschreitende Vernetzung der Logistik bietet enormes Potenzial – insbesondere um Prozesse effizienter zu machen. Sie können sich vorstellen, dass es bei so vielen einzelnen Einheiten, wie es im Güterverkehr der Fall ist, schwierig ist, diese ideal zu koordinieren. Echtzeit-Ortung und das automatisierte Signalisieren, dass bestimmte Routenpunkte erreicht sind, sind beispielsweise integral für einen reibungslosen Weitertransport der Waren. Neben den bereits genannten Ortungs- und 3D-Bewegungssensoren, die die Position eines Waggons ortbar und Erschütterungen erkennbar machen, existieren darüber hinaus weitere Sensormodelle, die die Möglichkeit bieten, Daten wie Temperatur oder Luftfeuchtigkeit an den Waggons zu messen. Dies ist zum Beispiel wichtig, wenn empfindliche Waren transportiert werden. Um die intelligente Vernetzung und Funktionen wie Echtzeit-Tracking und -Monitoring nutzbar zu machen, bedarf es natürlich einer leistungsfähigen IoT-Plattform im Hintergrund – wir arbeiten hierfür mit Cumulocity IoT.

Herr Zsifkovits, vielen Dank für Ihre Zeit!

Zsivkovits: Danke Ihnen!

 

Die InnovationTour der Software AG findet auch in diesem Jahr wieder statt. Mit Beiträgen zu den Themen API Management, Data Analytics und Industrie 4.0 stellt die Software AG selbst, aber auch namhafte Kunden spannende Projekte zur Schau – alles anhand realer Anwendungsbeispiele. Schauen Sie auf einem der drei Stopps im September vorbei: https://www.softwareag.com/de/company/events/iot_tour/default.ht

Teilen:
Always-on-Business erfordert Kundenbetreuung rund um die Uhr

Always-on-Business erfordert Kundenbetreuung rund um die Uhr

Interne und externe Anwender erwarten problemlosen Zugriff auf Dienste – und das 24 Stunden am Tag und 7 Tage die Woche. IT-Ausfälle dagegen gefährden Digitalisierungsinitiativen sowie Innovationen und kommen Unternehmen teuer zu stehen. Durchschnittlich verliert jede Firma dadurch 20,4 Millionen Euro pro Jahr, so eine aktuelle Studie. Mit dem richtigen Support erhöhen Unternehmen die Verfügbarkeit von Anwendungen, Daten und Services. Diesen Trend hat auch die Software AG erkannt und bietet deshalb ihren Kunden mit dem den Enterprise Active Support (EAS) ein erweitertes Support-Paket an, um sie ganzheitlich bei der digitalen Transformation zu unterstützen.  

Die digitale Welt kennt weder Öffnungszeiten noch Ladenschluss. Die Bereitstellung von Waren und Dienstleistungen rund um die Uhr ist in vielen Fällen längst kein Wettbewerbsvorteil mehr, sondern eine Selbstverständlichkeit. Weil viele Prozesse digitalisiert und alternativlos nur noch über IT-Systeme machbar sind, ist die ständige Verfügbarkeit von Systemen Grundvoraussetzung für den Unternehmenserfolg.

Rund um die Uhr verfügbar

Webseiten, etwa von Online-Shops, müssen 24 Stunden am Tag erreichbar sein – das hebt sie schließlich vom stationären Handel ab. Bei Apps, die Kunden in der Freizeit nutzen, wird ständige Erreichbarkeit sowieso vorausgesetzt. In Bezug auf Geschäftsanwendungen ist die permanente Verfügbarkeit in besonderem Maße in internationalen Unternehmen Grundvoraussetzung: Standorte und Büros in verschiedenen Zeitzonen brauchen jederzeit Zugriff auf interne Dienste. Support zu den üblichen Geschäftszeiten des Mutterlandes reicht in diesen Fällen nicht mehr aus. Das bestätigt auch eine Studie, in der 70 Prozent der Befragten den unterbrechungsfreien Zugang zu IT-Services als zentrale oder wichtige Voraussetzung für die digitale Transformation sehen. 44 Prozent der in Deutschland Befragten beobachten bei Ausfällen und Datenverlusten sinkendes Kundenvertrauen.

Steigende Anforderungen und Nachfrage nach IT-Experten

IT-Abteilungen stehen daher vor der Herausforderung, die Verfügbarkeit zu jeder Zeit und in jeder Zeitzone zu gewährleisten, gleichzeitig aber die Projekte der Fachabteilungen mit der nötigen IT-Kompetenz zu unterstützen, um die Digitalisierung voranzutreiben. Dabei haben sie selbst mit dem andauernden Fachkräftemangel zu kämpfen: Ende April 2018 waren rund 39.600 Stellen im IT-Bereich unbesetzt – die Zahl hat sich in den letzten vier Jahren mehr als verdoppelt. Das geht aus dem MINT-Frühjahrsreport 2018 hervor. Trotz dieser Herausforderung ist es bei Störungen an der Hardware oder Fehlern in der Software essenziell, schnell Experten für die einzelnen Komponenten an der Hand zu haben. Deshalb bietet die Software AG ihren Kunden den Enterprise Active Support.

Sechs gute Gründe für den Enterprise Active Support

  1. Der Telefon-Support sowie der Zugang zu Empower – das umfassende Self-Service-Extranet – stehen Anwendern täglich rund um die Uhr zur Verfügung.
  2. Kunden können eine unbegrenzte Anzahl technischer Ansprechpartner angeben, die der Hotline Support-Fälle melden können.
  3. Bei kritischen Support-Fällen erhalten EAS-Services-Nutzer innerhalb von vier Stunden einen Resolution-Plan.
  4. Die Support-Fälle priorisiert der Support und reagiert doppelt so schnell.
  5. Damit es gar nicht erst zu ungeplanten Ausfällen der Digital Business Platform sowie der kritischen Adabas- und Natural-Anwendungen kommt, gehören zu den EAS Services auch Beratungs- und Optimierungsangebote.
  6. Experten begleiten die Mitarbeiter der Anwender durch den Lebenszyklus der Produkte.

Wie Kunden der Software AG vom EAS profitieren

Das EAS minimiert Risiken und senkt Kosten, gerade in schwierigen Situationen, wie beispielsweise bei technischen und funktionalen Änderungen der Umgebung, bei Erweiterungen der IT-Landschaft und bei der Integration neuer Lösungen. Unternehmen erhalten technische Dokumente und können One-to-One-Online-Sessions mit den Experten buchen. Diese bieten Unterstützung beispielsweise beim Performance Tuning oder dem Load Balancing. Die EAS-Ansprechpartner stehen dabei im Austausch mit den Software-AG-Bereichen F&E, den Global Consulting Services und dem Produktmanagement. Damit fließen Informationen und Erkenntnisse – beispielsweise aus neuen Implementierungen – zwischen den Bereichen und den EAS-Anwendern, die so direkt bessere Prozesse erstellen und festlegen können. So generieren sie mit der richtigen Technologie und professionellem Support größeren Nutzen.

Weitere Informationen zum Enterprise Active Support erhalten Sie hier.

Teilen:
Versicherungen auf dem Weg in eine von Algorithmen dominierte Zukunft

Versicherungen auf dem Weg in eine von Algorithmen dominierte Zukunft

Keine Frage: Künstliche Intelligenz (KI) ist derzeit eines der populärsten Trendthemen. Mit unzähligen Beispielen wird verdeutlicht, welche bahnbrechenden Entwicklungen wir zukünftig zu erwarten haben. Da wird optimistisch über selbstfahrende Autos und Drohnen spekuliert oder es werden Roboter gezeigt, die bald Arbeiten im Warenlager und bei der Altenpflege übernehmen. Und es gibt beunruhigende Szenarien von autonomen Kampfrobotern und der totalen (Video-) Überwachung von Aktivitäten im öffentlichen Raum, die sofort Erinnerungen an den Roman „1984“ hervorrufen.

Auch in der Versicherungsbranche kommt KI bereits zum Einsatz. Die Auswirkungen sind weniger spektakulär, aber nicht minder weitreichend. Schon heute gibt es zahlreiche Beispiele, welche die Richtung vorgeben:

  • Im Vertrags- und Bestandsmanagement kann sich der Kunde an einen Chatbot wenden (z.B. Uniqa ServiceBot), um sich über die verfügbaren Versicherungsprodukte zu informieren. Dies geschieht nicht nur, um die Mitarbeiter der Versicherung zu entlasten, sondern auch, um eine spezielle Zielgruppe zu adressieren: Menschen, die sich nicht mehr unbedingt mit anderen Menschen unterhalten wollen, sondern den asynchronen Dialog mit einem Algorithmus vorziehen.
  • Im Schadenmanagement werden für proaktive Schadensregulierungen bzw. Sofortregulierungen Algorithmen eingesetzt, um mit weniger Arbeitsaufwand (also Kosten) schneller Entscheidungen treffen zu können. Das Ziel dabei ist es, den Kunden zeitnah auszahlen zu können und an die eigene Versicherung zu binden. Bei Massenregulierungen, etwa nach einem Hagelsturm, können Algorithmen die Bilder der Schäden oder die Scans der beschädigten Karosserien mittlerweile mindestens so gut beurteilen wie Menschen. In jedem Fall können sie es schneller und ermüdungsfrei – bis zu 24 Stunden pro Tag.
  • Der Einsatz vernetzter Geräte (Internet of Things) wird mehr und mehr für die Bereitstellung von verhaltensbasierten Policen genutzt. Bei Krankenversicherungen kann das die Kontrolle sein, ob sich ein Patient an den verordneten Therapieplan hält. Fitness-Tracker werden mehr und mehr eingesetzt, um Versicherte zu einem gesünderen Lebensstil zu animieren. In beiden Fällen sind Algorithmen notwendig, um aus der Fülle an Daten relevante Einzelereignisse oder unerwünschte Entwicklungen zu identifizieren und schnellstmöglich darauf zu reagieren.
  • Im Bereich der internen IT ist schon heute das Abwehren von Cyberangriffen ohne den Einsatz von Algorithmen kaum noch vorstellbar. Bei geschätzten 600 Millionen Angriffen täglich wird schnell deutlich, dass Menschen alleine hoffnungslos überfordert sind und deshalb der Einsatz von KI unbedingt notwendig ist.

Diese Beispiele stellen nur den Anfang einer Entwicklung dar, die sich in den nächsten Jahren noch beschleunigen wird. Die Konsequenzen davon sind vielfältig:

  • Versicherungen werden zukünftig proaktiver entscheiden und handeln als in der Vergangenheit. Der Blick in den Rückspiegel weicht dem Blick durch die Windschutzscheibe.
  • Versicherungen werden Produkte viel stärker als heute auf Basis individueller Risiken und Verhaltensweise entwickeln und mit Preisen belegen, die nicht mehr pauschal für ein Jahr gelten, sondern für kürzere Zeiträume und personenbezogene Anforderungen.
  • Die Bedürfnisse des Kunden bei der Interaktion mit der Versicherung (Customer Experience) werden noch stärker in den Mittelpunkt treten. Der Kunde wird individuell und ganzheitlich gesehen und bekommt in Echtzeit Rückmeldungen von seiner Versicherung.

Dafür müssen sich Versicherungen umfassend auf die Nutzung von Künstlicher Intelligenz vorbereiten. Dies beinhaltet:

  • Organisation: Versicherungen müssen noch mehr internes KI-Know-how entwickeln und bereitstellen. Dem „Data Scientist“ kommt dabei eine zentrale Rolle zu. Zudem müssen Versicherungen ihre Mitarbeiter von Routinetätigkeiten entlasten, sodass diese zusammen mit Data Scientists an der Umsetzung der KI arbeiten können. Durch diese Freiräume für neue Innovationen können durchaus erste, kleinere KI-Projekte entstehen.
  • IT: Versicherungen brauchen leistungsfähige IT-Plattformen, um KI erfolgreich einzusetzen. Das beste Modell eines Data Scientists nützt wenig, wenn es nicht in der Praxis eingesetzt werden kann. Das Modell muss mit echten Stammdaten, Daten des Kunden sowie externen Daten (beispielsweise Wetter-Daten) versorgt werden, um Entscheidungen unterstützen zu können. Es muss sozusagen „die letzte Meile“ überwinden.
  • Daten-Governance: Die IT-Plattform muss um eine entsprechende Daten-Governance ergänzt werden, die beschreibt, wo die Daten herkommen (aus dem eigenen Haus oder von extern) und wie und von wem die Daten verwendet werden. Schließlich muss sichergestellt sein, dass Datenqualität und Datenschutz gewährleistet sind. Nur wenn Daten klassifiziert sind, können sie für das Trainieren von Modellen (insbesondere Neuronale Netzwerke) eingesetzt werden.

Versicherungen müssen flexibel sein

Die Auswirkungen von KI auf Versicherungen werden massiv sein. Die aufgezeigten Anwendungsfälle sind nur der Anfang einer Entwicklung, die alle Sparten und alle Produkte der Versicherungen betreffen wird. Heute sind weder das genaue Zielbild noch der optimale Weg dorthin bekannt. Daher gilt es, sich so flexibel wie möglich aufzustellen. So verbaut sich die Versicherung nicht den Weg in eine von Algorithmen dominierte Zukunft.

Mehr über die Digitale Transformation von Versicherungen lesen Sie hier.

Teilen:
Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz ist derzeit in aller Munde. Analysten sagen der neuen Technologie enormes Potenzial für die Wirtschaft voraus. Unternehmen quer über alle Branchen hinweg setzen sich mit den Möglichkeiten von maschinellem Lernen und automatisierten Entscheidungen auseinander. Doch die Umsetzung wird vor allem durch eines ausgebremst: den Fachkräftemangel.

Wenn man sich die Masse an Medien- und Social-Media-Meldungen zum Thema KI ansieht, scheint künstliche Intelligenz heute nahezu allgegenwärtig. Produktankündigungen, Forschungsergebnisse und Artikel, die sich mit den Möglichkeiten von KI auseinandersetzen, überfluten den Markt. Im privaten Alltag findet KI bereits große Akzeptanz. So zeigt eine aktuelle Studie des Branchenverbandes Bitkom, dass drei Viertel der befragten Bundesbürger KI-basierte Empfehlungen für optimale Reiseverbindungen gut finden, und 69 Prozent freuen sich, wenn bei der Internetsuche dank künstlicher Intelligenz die besten Ergebnisse ganz oben stehen.

KI ist in der Praxis angekommen

Auch im Unternehmensumfeld rauchen derzeit viele Köpfe, wie man am besten von KI profitieren kann. Über alle Branchen hinweg gibt es bereits zahlreiche Anwendungen. In der Industrie optimieren selbstlernende Algorithmen zum Beispiel mit vorausschauender Wartung die Produktion. Im Banken- und Versicherungsumfeld helfen intelligente Systeme dabei, Betrugsfälle in Echtzeit aufzudecken und zu vermeiden. Und in der Automobilbranche entwickeln die Hersteller mit Hochdruck das autonome Fahren. Laut einer aktuellen IDC-Studie hat ein Viertel der deutschen Unternehmen bereits KI-Projekte umgesetzt, und 69 Prozent planen dies in den nächsten zwölf Monaten. Den Analysten zufolge werden die weltweiten Ausgaben für künstliche Intelligenz und Machine Learning bis 2020 auf über 40 Milliarden US-Dollar steigen.

Warum diese Begeisterung? Die Antwort liegt auf der Hand: Künstliche Intelligenz und maschinelles Lernen bieten Unternehmen die Möglichkeit, das Potenzial ihrer Daten erst richtig auszuschöpfen. Denn mit dem Internet der Dinge wächst die verfügbare Datenmenge ins Unendliche. Es reicht jedoch nicht aus, Informationen einfach nur zu sammeln, man muss sie auch in Wissen verwandeln. Um dies bei der wachsenden Datenflut zu meistern, kommen selbstlernende Algorithmen ins Spiel.

Fachkräftemangel als größte Herausforderung

Künstliche Intelligenz ist allerdings kein Selbstläufer. Damit sie überhaupt erfolgreich sein kann, braucht sie nicht nur Hochleistungs-Technik, sondern auch Menschen. Unternehmen benötigen Data Scientists, die geeignete Datenquellen für eine Fragestellung identifizieren und die Analysen vorbereiten. Sie müssen unter anderem passende analytische Modelle erstellen, Tools auswählen und interdisziplinär über den Tellerrand hinausschauen. Außerdem sind Data Engineers gefragt, die die Daten bereinigen, aufbereiten und analysefähig machen.

Doch solche Fachkräfte sind Mangelware und auf dem Markt heiß begehrt. Laut der bereits oben erwähnten IDC-Studie fehlt es in mehr als 80 Prozent der befragten Unternehmen an geeigneten Spezialisten. Händeringend gesucht werden Data Scientists, Entwickler, Datenbank-Manager, Business-Analysten sowie Trainer. Zwar gibt es an deutschen Universitäten bereits zahlreiche Studiengänge mit dem wohlklingenden Abschluss Data Scientist, doch bis diese Absolventen auf den Arbeitsmarkt kommen, dauert es noch einige Zeit. International sieht es nicht viel besser aus. McKinsey beispielsweise prognostiziert, dass bis 2024 alleine in den USA 250.000 Data Scientists fehlen werden.

Keine Zeit zu verlieren

Unternehmen sollten sich daher nicht nur darauf konzentrieren, neue Fachkräfte zu rekrutieren. Genauso wichtig ist es, Mitarbeiter weiter zu qualifizieren und fehlendes Know-how aufzubauen. Die Bitkom Akadmie bietet z.B. hierfür seit Kurzem in Zusammenarbeit mit dem Deutschen Forschungszentrum für KI (DFKI) den bundesweit ersten Zertifikatslehrgang „Ausbildung zum KI-Manager“. Außerdem können Unternehmen durch Zusammenarbeit mit externen Spezialisten Know-how-Lücken schließen. Denn eines ist klar: Abwarten ist keine Lösung. Im internationalen Vergleich liegt Deutschland im KI-Bereich nur im Mittelfeld, so die IDC-Studie. Es wird also höchste Zeit, mit der Aufholjagd zu beginnen.

Hier erfahren Sie mehr über die KI-Angebote der Software AG.

Teilen:
IT-Architekturen im Wandel

IT-Architekturen im Wandel

Digitale Plattformen bieten Unternehmen die nötige Agilität und Flexibilität, um die unternehmenseigene IT-Architektur wirkungsvoll zu gestalten und den Weg der Digitalisierung erfolgreich zu beschreiten. Bisher eingesetzte Standardsoftware erreicht schnell die Grenzen der Flexibilität, wenn aufgrund eines neuen Geschäftsmodells neue Prozesse und  Organisationsstrukturen schnellstmöglich implementiert werden müssen. Über den Innovationsfaktor „Software“ und die richtige IT-Architektur für die Digitalisierung haben wir mit Dr. Wolfram Jost, Chief Technology Officer der Software AG, gesprochen.

Dr. Jost, sind Altsysteme – gerade in geschäftskritischen Bereichen – eine unüberwindbare Hürde auf dem Weg zum digitalen Unternehmen?

Nein, eine Anwendungs- und Technologie-Architektur wird selten von Grund auf neu entwickelt. Im Gegenteil: Ältere Systeme werden oft gebraucht, um zentrale Geschäftsprozesse entscheidend zu unterstützen. Der wesentliche Wert dieser Systeme liegt in der Geschäftslogik, die über viele Jahre entwickelt wurde und häufig einen Differenzierungsfaktor im Wettbewerb darstellt. Der geeignete Ansatz für die Digitalisierung ist daher eine Modernisierung, also ein Facelifting vorhandener Anwendungen. Diese Modernisierung kann sowohl am Front End (User Interface) als auch im Back End (Application Integration) stattfinden.

Wie sieht die Einbindung von traditionellen Systemen aus?

Über offene Programmierschnittstellen lassen sich ältere Anwendungen mit webbasierten, modernen Benutzeroberflächen ausstatten. Eine weitere Chance für digitale Wertschöpfung ist die Integration von traditionellen Applikationen in Cloud- oder mobile Anwendungen. Eine Modernisierung des „Bestands“ führt oft zuverlässiger und effizienter zum Erfolg, als eine bewährte Lösung komplett aufzugeben und durch eine Neuentwicklung zu ersetzen. Diese Neuentwicklungen scheitern in den allermeisten Fällen, weil man das, was man über Jahrzehnte mit viel Know-how entwickelt hat nicht mal „schnell“ neu entwickelt. Dabei handelt es ich hier primär nicht um ein technologisches, sondern vielmehr um ein fachliches Problem. Das domänenspezifische Know-how ist oft nicht mehr im dem Maßen vorhanden, wie es sein müsste, um alles nochmals neu zu entwickeln. Ein weiterer Punkt ist, dass bei solchen Neuentwicklungsprojekten häufig ein „Overengineering“ stattfindet. Es wird versucht, alles was man sich theoretisch vorstellen kann, in das System zu implementieren.

Was genau lässt sich an der genutzten Software ablesen?

Software war und ist DER Innovationsfaktor am Markt und blickt mittlerweile auf eine über 40-jährige Entstehungsgeschichte zurück. In den Anfangsjahren versorgten externe Entwickler Unternehmen mit individuellen, funktionsbezogenen IT-Programmen, die Geschäftsprozesse im Finanz- oder Personalwesen unterstützten. Hardware, Daten und Software waren eine monolithische Einheit. Damals galten Unternehmen als modern und innovativ, wenn sie überhaupt Software nutzten und die Entwicklung erfolgte ausnahmslos individuell für ein Unternehmen. Erstes und einziges Zielsystem war der Großrechner.

Damals beanspruchten Computer noch ganze Räume.

Genau, erst mit der Verkleinerung und „Beschleunigung“ der Hardware und den auf dieser neuen Hardware beruhenden Standardanwendungen fanden die Computer ihren Weg in die Büros. Die Anwendungen wurden von externen Softwareanbietern entwickelt und vermarktet. Softwarepakete von der Stange bedienten nicht mehr nur einzelne Funktionen, sondern mit der Zeit fast sämtliche administrativen Geschäftsprozesse eines Unternehmens. Vorteile waren konsistente Daten, integrierte Geschäftsprozesse, benutzerfreundliche Oberflächen und mehr Wahlfreiheiten bei Hardware und Datenbanksoftware. Durch das Aufkommen des Internets wurde der Browser zum neuen Front End und ermöglichte hierüber den Zugriff auf Geschäftsanwendungen. Damit eröffnete sich ein vollkommen neuer Kommunikations- und Vertriebskanal für Unternehmen, dessen Potenzial wir mit dem Schlagwort E-Business/E-Commerce umschreiben.

Welchen Stellenwert nimmt Software heute ein?

Während bisher Effizienz, Kostenoptimierung und Standardisierung administrativer Geschäftsprozesse im Vordergrund standen, geben digitale Plattformen den Unternehmen heute ihre Innovationsfreiheit zurück: Dank der schnellen Entwicklung und Integration innovativer Anwendungen auf der Basis von plattformbasierten Softwarearchitekturen können sie ganz neue Geschäftsmodelle entwickeln. Die Verbesserung der Customer Experience ist hierbei das Schlagwort. Die Wünsche, Bedürfnisse und das Kauferlebnis der Kunden und Partner stehen heute im Mittelpunkt des Unternehmens. Daten zum Kauferlebnis werden möglichst in Echtzeit analysiert. Deren Rückmeldungen bildet die Basis, um neue, digitale Kundenerlebnisse zu schaffen.

Welche Bausteine sind für eine digitale Plattform erforderlich?

In-Memory Data Stores, Integration, API-Management, Process Automation, Analytics sowie Business Design und IT-Portfolio-Management – das sind die zentralen Softwarebausteine einer digitalen Technologieplattform, die jedes Unternehmen braucht. Alle digitalen Fähigkeiten sind Microservice-orientiert, API-fähig und ereignisbasiert. Eine digitale Plattform bildet das Fundament für die digitale Architektur des Unternehmens. Sie stellt alle zentralen Funktionen und Komponenten bereit, um digitale Architekturen und Applikationen für innovative Anwendungsszenarien zu konzipieren, zu implementieren und zu managen. Damit bestimmen die Unternehmen wieder selbst ihren Innovationszyklus – nicht der Anbieter der Standardsoftware.

Wo liegen die Herausforderungen beim Aufbau einer solchen Architektur?

Zentral für den richtigen Zuschnitt einer Technologiearchitektur sind die von der Anwendung zu verarbeitende Datenmenge, Nutzerzahlen sowie die gewünschte Flexibilität, Performance und Skalierbarkeit. Ein Entwickler läuft stets Gefahr, dass er den Zuschnitt zu groß oder zu knapp dimensioniert. Die Folge können mangelnde Prozessunterstützung, fehlende Agilität und Skalierbarkeit, umständliches Betriebsmanagement und geringe Benutzerakzeptanz sein. Bei jedem Unternehmen ist der Aufbau einer digitalen Arichitektur anders – es gibt kein allgemeingültiges Standardkonzept. Solche Architekturen entstehen auch nicht über Nacht. Sondern sie entwickeln sich über die Zeit.

Gibt es so etwas wie ein Herzstück in einer digitalen Architektur?

Ja, das sind die Integrationstechnologien. In heterogenen und verteilten Architekturen ist Integration eine core capability. Sie dient dem Design, der Implementierung und dem Management von komplexen Integrationsflüssen. Ihre wichtigsten Funktionen sind Routing, Mapping, Transformation, Orchestrierung, Sicherheit und Mediation. Die entwickelten Integrationsflüsse werden als Microservices mit offenen Schnittstellen bereitgestellt, die kleinere Softwaremodule einer größeren, komplexen Integrationsanwendung sind. Sie können unabhängig voneinander implementiert, bereitgestellt, aktualisiert und verwaltet werden.

Digitale Architekturen sind also für Unternehmen das A und O auf dem Weg in die digitale Transformation?

Genau. Die Architektur bestimmt die Skalierbarkeit, Performance, Sicherheit, Wartbarkeit und Flexibilität der digitalen Anwendungen. Zu beachten ist außerdem, dass digitale Architekturen ihren vollen Nutzen nur dann entfalten, wenn die dahinter liegenden fachlichen Anwendungskonzepte differenziert und innovativ sind. Doch mindestens genauso wichtig sind Geschäftsmodellierung und IT-Portfolio-Management. Denn: Ohne zu wissen, was die eigentlichen betriebswirtschaftlichen Zusammenhänge sind und wie man den Übergang vom Ist- zum Soll-Zustand managen kann, wird die digitale Transformation zwangsläufig scheitern.

Mehr zum Thema digitale Transformation lesen Sie hier.

Teilen:
Robotic Process Automation – Erfolgsfaktor im Bankensektor

Robotic Process Automation – Erfolgsfaktor im Bankensektor

Seit Jahren steht bei deutschen Banken eine zentrale Frage im Vordergrund: Wie können die Kosten gesenkt werden, um zu den führenden internationalen Finanzhäusern aufzuschließen? Der wirkungsvollste Hebel dafür sind die Betriebskosten, da sie diese selbst beeinflussen können. Um diesen zu betätigen, entscheiden sich Banken für günstigeres Personal, die Verlagerung an kosteneffizientere Standorte oder Outsourcing in Near- oder Offshore-Zentren. Dem eigentlichen Kern des Problems – ineffizienten und teilweise manuellen Prozessen – hat man sich noch nicht ausreichend angenähert.

Mit Robotic Process Automation (RPA) hat sich innerhalb weniger Jahre ein Nischenprodukt zu einer validen Alternative für die Automatisierung und Optimierung von Abläufen entwickelt. Nach Schätzungen von Capgemini belaufen sich die Kosten für RPA nur etwa auf ein Drittel der Kosten einer Offshore-Ressource und nur etwa auf ein Fünftel einer Onshore-Ressource. McKinsey schätzt, dass in den nächsten Jahren etwa zehn bis 25 Prozent der Arbeit über alle Bankfunktionen hinweg von Maschinen übernommen wird. Für die Banken hat dies den Vorteil, dass sie Betriebskosten senken können und gleichzeitig den Mitarbeitern wieder mehr Zeit für Tätigkeiten wie beispielsweise Kundenservice und Innovationsprojekte zur Verfügung steht.

Den Anwendungsfeldern von RPA sind (fast) keine Grenzen gesetzt

Doch wo sollen Banken anfangen – bei den Klassikern im Front Office wie der Kontoeröffnung oder dem Kreditantrag? Oder bei Back-Office-Prozessen, etwa bei einem Geldwäsche-Verdachtsfall? Die Antwort lautet: sowohl als auch. Einsatzbereiche für RPA lassen sich in allen Bereichen der Bank finden, angefangen bei Tätigkeiten im Kundenservice (Verarbeitung eingehenden Schriftverkehrs der Kunden, Widersprüche, Wohnortwechsel), über Operations (falsche Kreditraten, nicht gezahlte Kreditkartenabrechnungen, überzogene Konten, Vertragsverlängerungen) und Compliance (Prüfungen bei Kontoauflösungen) bis in die Finanzabteilung (Rechnungseingang, Personalabrechnung, Kontoabgleich) und die IT (Bearbeitung einfacher Tickets wie etwa das Zurücksetzen von Passwörtern).

Roboter – allzeit einsatzbereit

In allen genannten Bereichen lassen sich Beispiele finden, bei denen Mitarbeiter mit verschiedenen Systemen arbeiten und Daten vom einen in das andere System übertragen müssen. Da nicht immer eine automatische Datenschnittstelle zur Verfügung steht, müssen sie sich mit Copy-and-Paste oder MS-Office selber helfen. Dies ist nicht nur eine langsame, sondern auch eine fehleranfällige Methode. RPA spielt immer dann seine Stärken aus, wenn Aufgaben routineartig durchzuführen sind, also mit einfachen Regeln, wenigen Ausnahmen und mittleren bis hohen Volumina. Der große Vorteil ist, dass ein Roboter im Vergleich zum Menschen nicht ermüdet oder unkonzentriert wird und seine Aufgabe ohne Pausen rund um die Uhr erledigen kann.

Um RPA erfolgreich einzusetzen, sollten folgende Aspekte beachtet werden:

  1. Der Roboter sollte für eine vollumfängliche (end-to-end) Automation von Prozessen eingesetzt werden. Dazu bietet sich der kombinierte Einsatz von RPA und BPMS (Business Process Management System) an, womöglich zusammen mit Künstlicher Intelligenz (KI). Dieser Aspekt wurde bereits von Matthias Rippert in einem vorangegangenen Blog-Beitrag erläutert.
  2. Der Roboter sollte in der Lage sein, unter Aufsicht („attended“, das heißt vom Benutzer gestartet), ohne Aufsicht („unattended“, also automatisch gestartet) und kombiniert („hybrid“) zu arbeiten. So lässt sich die gesamte Bandbreite an Automatisierungsaufgaben abdecken.
  3. Der Roboter muss ein breites Spektrum an vorhandenen Systemen bedienen können. Dies beinhaltet Systeme, die auf dem Mainframe, unter Linux/Unix, Windows oder Citrix laufen. Zudem muss ein Roboter in der Lage sein, mit Dokumenten umzugehen, um handschriftlich eingereichte Informationen in Systeme zu übertragen.

Bei der Auswahl eines geeigneten Use Cases und für eine erste Abschätzung des Nutzens von RPA bieten folgende Fragen Orientierung:

  • Welcher Anteil der Aufgaben in bestimmten Bereichen ist manuell? Wie häufig werden diese Tätigkeiten durchgeführt? Wie viel Zeit beanspruchen die Aufgaben?
  • Wie viele verschiedene Systeme werden von einem Mitarbeiter für die Ausführung der Aufgaben benötigt? Welche Technologien werden dafür verwendet?
  • Wie stark behindert die fehlende Integration von Systemen die Produktivität der Mitarbeiter? Wie viele Mitarbeiter sind davon betroffen?
  • Welche Vorteile würden entstehen, wenn die Mitarbeiter entlastet würden?
  • Welche Nachteile entstehen durch die fehlerhafte Bearbeitung der Aufgaben?

Mit RPA Prozesse optimieren und Betriebskosten senken

Zahlreiche internationale Geldinstitute haben bereits erfolgreiche RPA-Projekte durchgeführt und beweisen, dass hier echte Potenziale für eine Senkung der Betriebskosten liegen. Nun liegt es an den Banken hierzulande, mit eigenen, ganzheitlichen Ansätzen nachzuziehen.

Wenn Sie mehr über das RPA-Angebot der Software AG erfahren möchten, klicken Sie hier.

Teilen: