Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz ist derzeit in aller Munde. Analysten sagen der neuen Technologie enormes Potenzial für die Wirtschaft voraus. Unternehmen quer über alle Branchen hinweg setzen sich mit den Möglichkeiten von maschinellem Lernen und automatisierten Entscheidungen auseinander. Doch die Umsetzung wird vor allem durch eines ausgebremst: den Fachkräftemangel.

Wenn man sich die Masse an Medien- und Social-Media-Meldungen zum Thema KI ansieht, scheint künstliche Intelligenz heute nahezu allgegenwärtig. Produktankündigungen, Forschungsergebnisse und Artikel, die sich mit den Möglichkeiten von KI auseinandersetzen, überfluten den Markt. Im privaten Alltag findet KI bereits große Akzeptanz. So zeigt eine aktuelle Studie des Branchenverbandes Bitkom, dass drei Viertel der befragten Bundesbürger KI-basierte Empfehlungen für optimale Reiseverbindungen gut finden, und 69 Prozent freuen sich, wenn bei der Internetsuche dank künstlicher Intelligenz die besten Ergebnisse ganz oben stehen.

KI ist in der Praxis angekommen

Auch im Unternehmensumfeld rauchen derzeit viele Köpfe, wie man am besten von KI profitieren kann. Über alle Branchen hinweg gibt es bereits zahlreiche Anwendungen. In der Industrie optimieren selbstlernende Algorithmen zum Beispiel mit vorausschauender Wartung die Produktion. Im Banken- und Versicherungsumfeld helfen intelligente Systeme dabei, Betrugsfälle in Echtzeit aufzudecken und zu vermeiden. Und in der Automobilbranche entwickeln die Hersteller mit Hochdruck das autonome Fahren. Laut einer aktuellen IDC-Studie hat ein Viertel der deutschen Unternehmen bereits KI-Projekte umgesetzt, und 69 Prozent planen dies in den nächsten zwölf Monaten. Den Analysten zufolge werden die weltweiten Ausgaben für künstliche Intelligenz und Machine Learning bis 2020 auf über 40 Milliarden US-Dollar steigen.

Warum diese Begeisterung? Die Antwort liegt auf der Hand: Künstliche Intelligenz und maschinelles Lernen bieten Unternehmen die Möglichkeit, das Potenzial ihrer Daten erst richtig auszuschöpfen. Denn mit dem Internet der Dinge wächst die verfügbare Datenmenge ins Unendliche. Es reicht jedoch nicht aus, Informationen einfach nur zu sammeln, man muss sie auch in Wissen verwandeln. Um dies bei der wachsenden Datenflut zu meistern, kommen selbstlernende Algorithmen ins Spiel.

Fachkräftemangel als größte Herausforderung

Künstliche Intelligenz ist allerdings kein Selbstläufer. Damit sie überhaupt erfolgreich sein kann, braucht sie nicht nur Hochleistungs-Technik, sondern auch Menschen. Unternehmen benötigen Data Scientists, die geeignete Datenquellen für eine Fragestellung identifizieren und die Analysen vorbereiten. Sie müssen unter anderem passende analytische Modelle erstellen, Tools auswählen und interdisziplinär über den Tellerrand hinausschauen. Außerdem sind Data Engineers gefragt, die die Daten bereinigen, aufbereiten und analysefähig machen.

Doch solche Fachkräfte sind Mangelware und auf dem Markt heiß begehrt. Laut der bereits oben erwähnten IDC-Studie fehlt es in mehr als 80 Prozent der befragten Unternehmen an geeigneten Spezialisten. Händeringend gesucht werden Data Scientists, Entwickler, Datenbank-Manager, Business-Analysten sowie Trainer. Zwar gibt es an deutschen Universitäten bereits zahlreiche Studiengänge mit dem wohlklingenden Abschluss Data Scientist, doch bis diese Absolventen auf den Arbeitsmarkt kommen, dauert es noch einige Zeit. International sieht es nicht viel besser aus. McKinsey beispielsweise prognostiziert, dass bis 2024 alleine in den USA 250.000 Data Scientists fehlen werden.

Keine Zeit zu verlieren

Unternehmen sollten sich daher nicht nur darauf konzentrieren, neue Fachkräfte zu rekrutieren. Genauso wichtig ist es, Mitarbeiter weiter zu qualifizieren und fehlendes Know-how aufzubauen. Die Bitkom Akadmie bietet z.B. hierfür seit Kurzem in Zusammenarbeit mit dem Deutschen Forschungszentrum für KI (DFKI) den bundesweit ersten Zertifikatslehrgang „Ausbildung zum KI-Manager“. Außerdem können Unternehmen durch Zusammenarbeit mit externen Spezialisten Know-how-Lücken schließen. Denn eines ist klar: Abwarten ist keine Lösung. Im internationalen Vergleich liegt Deutschland im KI-Bereich nur im Mittelfeld, so die IDC-Studie. Es wird also höchste Zeit, mit der Aufholjagd zu beginnen.

Hier erfahren Sie mehr über die KI-Angebote der Software AG.

Teilen:
IT-Architekturen im Wandel

IT-Architekturen im Wandel

Digitale Plattformen bieten Unternehmen die nötige Agilität und Flexibilität, um die unternehmenseigene IT-Architektur wirkungsvoll zu gestalten und den Weg der Digitalisierung erfolgreich zu beschreiten. Bisher eingesetzte Standardsoftware erreicht schnell die Grenzen der Flexibilität, wenn aufgrund eines neuen Geschäftsmodells neue Prozesse und  Organisationsstrukturen schnellstmöglich implementiert werden müssen. Über den Innovationsfaktor „Software“ und die richtige IT-Architektur für die Digitalisierung haben wir mit Dr. Wolfram Jost, Chief Technology Officer der Software AG, gesprochen.

Dr. Jost, sind Altsysteme – gerade in geschäftskritischen Bereichen – eine unüberwindbare Hürde auf dem Weg zum digitalen Unternehmen?

Nein, eine Anwendungs- und Technologie-Architektur wird selten von Grund auf neu entwickelt. Im Gegenteil: Ältere Systeme werden oft gebraucht, um zentrale Geschäftsprozesse entscheidend zu unterstützen. Der wesentliche Wert dieser Systeme liegt in der Geschäftslogik, die über viele Jahre entwickelt wurde und häufig einen Differenzierungsfaktor im Wettbewerb darstellt. Der geeignete Ansatz für die Digitalisierung ist daher eine Modernisierung, also ein Facelifting vorhandener Anwendungen. Diese Modernisierung kann sowohl am Front End (User Interface) als auch im Back End (Application Integration) stattfinden.

Wie sieht die Einbindung von traditionellen Systemen aus?

Über offene Programmierschnittstellen lassen sich ältere Anwendungen mit webbasierten, modernen Benutzeroberflächen ausstatten. Eine weitere Chance für digitale Wertschöpfung ist die Integration von traditionellen Applikationen in Cloud- oder mobile Anwendungen. Eine Modernisierung des „Bestands“ führt oft zuverlässiger und effizienter zum Erfolg, als eine bewährte Lösung komplett aufzugeben und durch eine Neuentwicklung zu ersetzen. Diese Neuentwicklungen scheitern in den allermeisten Fällen, weil man das, was man über Jahrzehnte mit viel Know-how entwickelt hat nicht mal „schnell“ neu entwickelt. Dabei handelt es ich hier primär nicht um ein technologisches, sondern vielmehr um ein fachliches Problem. Das domänenspezifische Know-how ist oft nicht mehr im dem Maßen vorhanden, wie es sein müsste, um alles nochmals neu zu entwickeln. Ein weiterer Punkt ist, dass bei solchen Neuentwicklungsprojekten häufig ein „Overengineering“ stattfindet. Es wird versucht, alles was man sich theoretisch vorstellen kann, in das System zu implementieren.

Was genau lässt sich an der genutzten Software ablesen?

Software war und ist DER Innovationsfaktor am Markt und blickt mittlerweile auf eine über 40-jährige Entstehungsgeschichte zurück. In den Anfangsjahren versorgten externe Entwickler Unternehmen mit individuellen, funktionsbezogenen IT-Programmen, die Geschäftsprozesse im Finanz- oder Personalwesen unterstützten. Hardware, Daten und Software waren eine monolithische Einheit. Damals galten Unternehmen als modern und innovativ, wenn sie überhaupt Software nutzten und die Entwicklung erfolgte ausnahmslos individuell für ein Unternehmen. Erstes und einziges Zielsystem war der Großrechner.

Damals beanspruchten Computer noch ganze Räume.

Genau, erst mit der Verkleinerung und „Beschleunigung“ der Hardware und den auf dieser neuen Hardware beruhenden Standardanwendungen fanden die Computer ihren Weg in die Büros. Die Anwendungen wurden von externen Softwareanbietern entwickelt und vermarktet. Softwarepakete von der Stange bedienten nicht mehr nur einzelne Funktionen, sondern mit der Zeit fast sämtliche administrativen Geschäftsprozesse eines Unternehmens. Vorteile waren konsistente Daten, integrierte Geschäftsprozesse, benutzerfreundliche Oberflächen und mehr Wahlfreiheiten bei Hardware und Datenbanksoftware. Durch das Aufkommen des Internets wurde der Browser zum neuen Front End und ermöglichte hierüber den Zugriff auf Geschäftsanwendungen. Damit eröffnete sich ein vollkommen neuer Kommunikations- und Vertriebskanal für Unternehmen, dessen Potenzial wir mit dem Schlagwort E-Business/E-Commerce umschreiben.

Welchen Stellenwert nimmt Software heute ein?

Während bisher Effizienz, Kostenoptimierung und Standardisierung administrativer Geschäftsprozesse im Vordergrund standen, geben digitale Plattformen den Unternehmen heute ihre Innovationsfreiheit zurück: Dank der schnellen Entwicklung und Integration innovativer Anwendungen auf der Basis von plattformbasierten Softwarearchitekturen können sie ganz neue Geschäftsmodelle entwickeln. Die Verbesserung der Customer Experience ist hierbei das Schlagwort. Die Wünsche, Bedürfnisse und das Kauferlebnis der Kunden und Partner stehen heute im Mittelpunkt des Unternehmens. Daten zum Kauferlebnis werden möglichst in Echtzeit analysiert. Deren Rückmeldungen bildet die Basis, um neue, digitale Kundenerlebnisse zu schaffen.

Welche Bausteine sind für eine digitale Plattform erforderlich?

In-Memory Data Stores, Integration, API-Management, Process Automation, Analytics sowie Business Design und IT-Portfolio-Management – das sind die zentralen Softwarebausteine einer digitalen Technologieplattform, die jedes Unternehmen braucht. Alle digitalen Fähigkeiten sind Microservice-orientiert, API-fähig und ereignisbasiert. Eine digitale Plattform bildet das Fundament für die digitale Architektur des Unternehmens. Sie stellt alle zentralen Funktionen und Komponenten bereit, um digitale Architekturen und Applikationen für innovative Anwendungsszenarien zu konzipieren, zu implementieren und zu managen. Damit bestimmen die Unternehmen wieder selbst ihren Innovationszyklus – nicht der Anbieter der Standardsoftware.

Wo liegen die Herausforderungen beim Aufbau einer solchen Architektur?

Zentral für den richtigen Zuschnitt einer Technologiearchitektur sind die von der Anwendung zu verarbeitende Datenmenge, Nutzerzahlen sowie die gewünschte Flexibilität, Performance und Skalierbarkeit. Ein Entwickler läuft stets Gefahr, dass er den Zuschnitt zu groß oder zu knapp dimensioniert. Die Folge können mangelnde Prozessunterstützung, fehlende Agilität und Skalierbarkeit, umständliches Betriebsmanagement und geringe Benutzerakzeptanz sein. Bei jedem Unternehmen ist der Aufbau einer digitalen Arichitektur anders – es gibt kein allgemeingültiges Standardkonzept. Solche Architekturen entstehen auch nicht über Nacht. Sondern sie entwickeln sich über die Zeit.

Gibt es so etwas wie ein Herzstück in einer digitalen Architektur?

Ja, das sind die Integrationstechnologien. In heterogenen und verteilten Architekturen ist Integration eine core capability. Sie dient dem Design, der Implementierung und dem Management von komplexen Integrationsflüssen. Ihre wichtigsten Funktionen sind Routing, Mapping, Transformation, Orchestrierung, Sicherheit und Mediation. Die entwickelten Integrationsflüsse werden als Microservices mit offenen Schnittstellen bereitgestellt, die kleinere Softwaremodule einer größeren, komplexen Integrationsanwendung sind. Sie können unabhängig voneinander implementiert, bereitgestellt, aktualisiert und verwaltet werden.

Digitale Architekturen sind also für Unternehmen das A und O auf dem Weg in die digitale Transformation?

Genau. Die Architektur bestimmt die Skalierbarkeit, Performance, Sicherheit, Wartbarkeit und Flexibilität der digitalen Anwendungen. Zu beachten ist außerdem, dass digitale Architekturen ihren vollen Nutzen nur dann entfalten, wenn die dahinter liegenden fachlichen Anwendungskonzepte differenziert und innovativ sind. Doch mindestens genauso wichtig sind Geschäftsmodellierung und IT-Portfolio-Management. Denn: Ohne zu wissen, was die eigentlichen betriebswirtschaftlichen Zusammenhänge sind und wie man den Übergang vom Ist- zum Soll-Zustand managen kann, wird die digitale Transformation zwangsläufig scheitern.

Mehr zum Thema digitale Transformation lesen Sie hier.

Teilen:
Robotic Process Automation – Erfolgsfaktor im Bankensektor

Robotic Process Automation – Erfolgsfaktor im Bankensektor

Seit Jahren steht bei deutschen Banken eine zentrale Frage im Vordergrund: Wie können die Kosten gesenkt werden, um zu den führenden internationalen Finanzhäusern aufzuschließen? Der wirkungsvollste Hebel dafür sind die Betriebskosten, da sie diese selbst beeinflussen können. Um diesen zu betätigen, entscheiden sich Banken für günstigeres Personal, die Verlagerung an kosteneffizientere Standorte oder Outsourcing in Near- oder Offshore-Zentren. Dem eigentlichen Kern des Problems – ineffizienten und teilweise manuellen Prozessen – hat man sich noch nicht ausreichend angenähert.

Mit Robotic Process Automation (RPA) hat sich innerhalb weniger Jahre ein Nischenprodukt zu einer validen Alternative für die Automatisierung und Optimierung von Abläufen entwickelt. Nach Schätzungen von Capgemini belaufen sich die Kosten für RPA nur etwa auf ein Drittel der Kosten einer Offshore-Ressource und nur etwa auf ein Fünftel einer Onshore-Ressource. McKinsey schätzt, dass in den nächsten Jahren etwa zehn bis 25 Prozent der Arbeit über alle Bankfunktionen hinweg von Maschinen übernommen wird. Für die Banken hat dies den Vorteil, dass sie Betriebskosten senken können und gleichzeitig den Mitarbeitern wieder mehr Zeit für Tätigkeiten wie beispielsweise Kundenservice und Innovationsprojekte zur Verfügung steht.

Den Anwendungsfeldern von RPA sind (fast) keine Grenzen gesetzt

Doch wo sollen Banken anfangen – bei den Klassikern im Front Office wie der Kontoeröffnung oder dem Kreditantrag? Oder bei Back-Office-Prozessen, etwa bei einem Geldwäsche-Verdachtsfall? Die Antwort lautet: sowohl als auch. Einsatzbereiche für RPA lassen sich in allen Bereichen der Bank finden, angefangen bei Tätigkeiten im Kundenservice (Verarbeitung eingehenden Schriftverkehrs der Kunden, Widersprüche, Wohnortwechsel), über Operations (falsche Kreditraten, nicht gezahlte Kreditkartenabrechnungen, überzogene Konten, Vertragsverlängerungen) und Compliance (Prüfungen bei Kontoauflösungen) bis in die Finanzabteilung (Rechnungseingang, Personalabrechnung, Kontoabgleich) und die IT (Bearbeitung einfacher Tickets wie etwa das Zurücksetzen von Passwörtern).

Roboter – allzeit einsatzbereit

In allen genannten Bereichen lassen sich Beispiele finden, bei denen Mitarbeiter mit verschiedenen Systemen arbeiten und Daten vom einen in das andere System übertragen müssen. Da nicht immer eine automatische Datenschnittstelle zur Verfügung steht, müssen sie sich mit Copy-and-Paste oder MS-Office selber helfen. Dies ist nicht nur eine langsame, sondern auch eine fehleranfällige Methode. RPA spielt immer dann seine Stärken aus, wenn Aufgaben routineartig durchzuführen sind, also mit einfachen Regeln, wenigen Ausnahmen und mittleren bis hohen Volumina. Der große Vorteil ist, dass ein Roboter im Vergleich zum Menschen nicht ermüdet oder unkonzentriert wird und seine Aufgabe ohne Pausen rund um die Uhr erledigen kann.

Um RPA erfolgreich einzusetzen, sollten folgende Aspekte beachtet werden:

  1. Der Roboter sollte für eine vollumfängliche (end-to-end) Automation von Prozessen eingesetzt werden. Dazu bietet sich der kombinierte Einsatz von RPA und BPMS (Business Process Management System) an, womöglich zusammen mit Künstlicher Intelligenz (KI). Dieser Aspekt wurde bereits von Matthias Rippert in einem vorangegangenen Blog-Beitrag erläutert.
  2. Der Roboter sollte in der Lage sein, unter Aufsicht („attended“, das heißt vom Benutzer gestartet), ohne Aufsicht („unattended“, also automatisch gestartet) und kombiniert („hybrid“) zu arbeiten. So lässt sich die gesamte Bandbreite an Automatisierungsaufgaben abdecken.
  3. Der Roboter muss ein breites Spektrum an vorhandenen Systemen bedienen können. Dies beinhaltet Systeme, die auf dem Mainframe, unter Linux/Unix, Windows oder Citrix laufen. Zudem muss ein Roboter in der Lage sein, mit Dokumenten umzugehen, um handschriftlich eingereichte Informationen in Systeme zu übertragen.

Bei der Auswahl eines geeigneten Use Cases und für eine erste Abschätzung des Nutzens von RPA bieten folgende Fragen Orientierung:

  • Welcher Anteil der Aufgaben in bestimmten Bereichen ist manuell? Wie häufig werden diese Tätigkeiten durchgeführt? Wie viel Zeit beanspruchen die Aufgaben?
  • Wie viele verschiedene Systeme werden von einem Mitarbeiter für die Ausführung der Aufgaben benötigt? Welche Technologien werden dafür verwendet?
  • Wie stark behindert die fehlende Integration von Systemen die Produktivität der Mitarbeiter? Wie viele Mitarbeiter sind davon betroffen?
  • Welche Vorteile würden entstehen, wenn die Mitarbeiter entlastet würden?
  • Welche Nachteile entstehen durch die fehlerhafte Bearbeitung der Aufgaben?

Mit RPA Prozesse optimieren und Betriebskosten senken

Zahlreiche internationale Geldinstitute haben bereits erfolgreiche RPA-Projekte durchgeführt und beweisen, dass hier echte Potenziale für eine Senkung der Betriebskosten liegen. Nun liegt es an den Banken hierzulande, mit eigenen, ganzheitlichen Ansätzen nachzuziehen.

Wenn Sie mehr über das RPA-Angebot der Software AG erfahren möchten, klicken Sie hier.

Teilen:
Mitmachen statt zusehen: Software AG bietet „Industry 4.easy“ auf der CEBIT 2018

Mitmachen statt zusehen: Software AG bietet „Industry 4.easy“ auf der CEBIT 2018

Wer dem IoT bisher nur in der Theorie begegnet ist, hat auf dem CEBIT-Festival 2018 die Möglichkeit, innerhalb weniger Minuten ein eigenes IoT zu bauen und in der Praxis auszuprobieren: Als einer der Marktführer im Bereich IoT-Technologie bietet die Software AG vom 11. bis 15. Juni 2018 in Hannover kurze Workshops, in denen Besucher erleben, wie einfach der Einstieg ins IoT-Zeitalter ist. Anschließend können sie sich am Stand C44 in Halle 17 anhand von acht interaktiven Showcases davon überzeugen, welche innovativen Anwendungsfelder im IoT möglich sind – von Smart Devices im intelligenten Zuhause bis hin zur vernetzten Fabrik der Zukunft.

Das IoT ist keine Zukunftsvision mehr, sondern längst greifbare Realität in allen Branchen. Passend dazu gestaltet die Software AG ihren Auftritt bei der diesjährigen CEBIT nach dem Motto „Experience Everything“ und präsentiert ihr breites IoT-Portfolio in verschiedenen Demos, bei denen die Messebesucher sich aktiv einbringen können. Im Zentrum steht dabei der Workshop „Industry 4.easy“, bei dem Besucher ein eigenes IoT mithilfe kleiner Devices bauen können. Er findet täglich um 10:30 und um 14:00 Uhr am Stand der Software AG statt. Weitere Showcases bieten die unterschiedlichsten Mitmach-Möglichkeiten: Bei einem Showcase zu Logistik 4.0 beispielsweise erhalten Teilnehmer eine interne Bestellung und müssen über ein iPad einen Lego-Kran bedienen, um in einem Warenhaus die bestellten Güter auszuwählen und auszuliefern. Abenteuerlustige, die noch tiefer in die digitale Welt abtauchen möchten, können mit Virtual Reality eine Slackline an einem Eisberg in Grönland begehen.

Showcase 1: SMART ENERGY – intelligente Stromnetze

Intelligente Stromnetze (Smart Grids) setzen voraus, dass Energieerzeuger jederzeit wissen, wie viel Strom sie aktuell und zukünftig erzeugen. Cumulocity IoT, die IoT-Plattform der Software AG, kann die Erzeugung, Verteilung und Speicherung von Energie koordinieren: Über ein Smart Grid können die Unternehmen auf Angebot und Nachfrage in Echtzeit reagieren und ihre Anlagen entsprechend steuern – auch aus der Ferne. Der Showcase „Smart Energy“ bildet modellhaft die smarte Energieversorgung einer ganzen Stadt ab. Besucher erleben, wie Cumulocity IoT Schwankungen und Störungen im Netz minimiert und die Energieerzeuger dabei unterstützt, ihren Kunden den richtigen Mix aus erneuerbaren und fossilen Energien anzubieten. Dabei dürfen die Besucher selbst Hand anlegen und ein intelligentes Netz aus einem Windpark, einem Gaskraftwerk und einer Photovoltaikanlage steuern.

Showcase 2: SMART CITY – intelligente Mülltonnen und vernetzte Straßenbeleuchtung

Smart City macht Städte effizienter, fortschrittlicher und sozial inklusiver. Besucher erleben live, welche Vorteile Bürger davon haben, wenn sich Städte für einen schnellen, offenen und sicheren digitalen Ansatz entscheiden. Die Demo zeigt, wie Abfallentsorgung im Zeitalter von IoT verbessert werden kann – mit smarten Sensoren an Mülltonnen und über ein mobiles Portal für den Service. Beispielsweise verschickt das System eine Warnung, sobald eine Straßenlampe ausgetauscht werden muss. Alle Informationen stehen in Echtzeit zur Verfügung. Dieser Showcase gibt Zuschauern und Teilnehmern einen Einblick in die kommunalen Dienstleistungen einer smarten City, wie sie schon heute möglich sind.

Showcase 3: SMART CITY – Parkmanagementsysteme

Der Kampf um einen Parkplatz hat ein Ende – Cumulocity IoT von Software AG bringt Navigationskarten und Daten über Parkmöglichkeiten zusammen: Auf diese Weise können Autofahrer schnell und einfach mitten im Stadtzentrum nach einem Parkplatz suchen und ihn gleich reservieren. Die Information über den Standort wird sofort an das Navigationssystem des Autos übermittelt, das den Fahrer zu seinem reservierten Parkplatz navigiert. Dieses Beispiel zeigt, wie Predictive Analytics und Condition-Monitoring-Systeme Parkplatzanbieter dabei unterstützen können, dass jeder Parkplatz genutzt wird, sobald er verfügbar ist. In diesem smarten Parkmanagementsystem steckt viel Technologie – dank Cumulocity IoT, webMethods, ARIS und Apama hat die leidige Parkplatzsuche endlich ein Ende.

Weitere Informationen zum CEBIT-Auftritt der Software AG, Gesprächsterminen mit Experten vor Ort und Guided Tours finden Sie hier.

Teilen:
Bankfilialen: Totgesagte leben länger

Bankfilialen: Totgesagte leben länger

Jede Woche schließen in Deutschland im Durchschnitt 36 Bankfilialen. Hat der gute alte Service-Schalter ausgedient? Die Antwort lautet Nein, denn damit verlieren Banken eine wichtige Schnittstelle zum Kunden. Filialen müssen sich neu erfinden. Der Einzelhandel macht vor, wie man mit innovativen Konzepten das Kundenerlebnis verbessert. Vieles davon lässt sich auch auf den Bankensektor übertragen.

Das Sterben von Bankenfilialen geht weiter: Wo vor Kurzem noch eine Sparkasse oder eine Volksbank war, steht jetzt eine Döner-Bude. Vor allem in ländlichen Gebieten müssen Kunden heute oft weit fahren, wenn sie noch Bankgeschäfte am Schalter erledigen möchten. Laut einer aktuellen Bain-Studie schließen in Deutschland wöchentlich 36 Bankfilialen, und ein Kreditinstitut verabschiedet sich sogar endgültig vom Markt. Pro Woche verlieren mehr als 400 Bankangestellte ihren Job. Geht künftig alles nur noch online?

In den USA ist ein gegenläufiger Trend erkennbar. Hier setzen große Banken wieder verstärkt auf die Filiale. Zwar treiben sie parallel auch ihr digitales Angebot voran – doch sie haben erkannt, dass der persönliche Kontakt und eine physische Präsenz vor Ort das A und O für gute Kundebeziehungen sind. So plant JPMorgan Chase zum Beispiel, 400 neue Filialen zu eröffnen. Auch die TD Bank baut ihr Filialnetz aus.

Mit exzellenter Beratung und Erlebnissen punkten

Die Filiale ist immer noch eine wichtige Kundenschnittstelle. Während Kunden alltägliche Bankgeschäfte vorwiegend online erledigen, wünschen sie sich für größere Finanzentscheidungen wie beispielsweise eine Immobilienfinanzierung oder Versicherung eine persönliche Beratung. Dafür bleibt das vertrauliche Gespräch vor Ort mit einem erfahrenen Berater weiterhin die erste Wahl. Auch etliche Banken in Deutschland haben das erkannt. Statt Filialen zu schließen, versuchen sie, diese wieder attraktiver für den Kunden zu gestalten.

Die Deutsche Bank setzt zum Beispiel auf Premium-Filialen, in denen sie ihre Beratungskompetenz in den Mittelpunkt stellt und moderne Technik einsetzt. Berater vor Ort können Experten auf der ganzen Welt per Videokonferenz zu einem Gespräch hinzuschalten. Kostenloses WLAN, der Einsatz von iPads und Co-Browsing mit dem Berater bieten ein modernes Erlebnis.

Auch die Commerzbank eröffnet in großen deutschen Städten Flagship-Stores, in denen ein Team aus jeweils 50 bis 60 Beratern bereitsteht. Kunden können sich auf Tablets über Angebote informieren. Großzügige Architektur, ein Lounge-Bereich und eine Kaffeebar sorgen für eine angenehme Atmosphäre.

Was Banken vom Einzelhandel lernen können

Nicht nur Banken kämpfen mit sinkenden Kundenzahlen. Auch der Einzelhandel ist davon betroffen – hat aber bereits Gegenmittel entwickelt. Einige Konzepte lassen sich gut auf den Bankensektor übertragen. Eine Möglichkeit wäre zum Beispiel, Kunden, die schon längere Zeit nicht mehr in der Filiale waren, anzusprechen und mit personalisierten Nachrichten auf Angebote aufmerksam zu machen. Diese sollten exakt auf die aktuellen Bedürfnisse des Kunden zugeschnitten sein. Dafür ist es wichtig, anhand von Kundendaten einen möglichst umfassenden Blick auf die Customer Journey zu gewinnen. Mit Location Based Marketing könnten Banken Kunden sogar identifizieren, wenn sie sich gerade in der Nähe einer Filiale befinden oder vorbeilaufen – und sie dann zum Besuch in der Filiale einladen.

Betritt der Kunde die Filiale, könnten ihn Monitore mit personalisierten Informationen auf attraktive Angebote aufmerksam machen, ihm Auswahlprozesse erleichtern oder ihn auf den nächsten freien Schalter oder die Schlange mit der kürzesten Wartezeit hinweisen.

Banken sollten zudem genau analysieren, zu welchen Zeiten Kunden in ihre Filiale kommen, welche Angebote sie dort vorwiegend nutzen und wo es vielleicht lange Wartezeiten gibt. Anhand dieser Daten können sie dafür sorgen, dass zu den Stoßzeiten ausreichend viele Berater für die am meisten nachgefragten Bereiche vor Ort sind und somit ihren Service verbessern. Angebote, die stark genutzt werden, können sie ausbauen und andere reduzieren. So gestalten Banken ihre Filialen insgesamt effizienter und sparen Kosten.

Den Mehrwert für den Kunden in den Mittelpunkt stellen

Um dem Filialsterben entgegenzuwirken und den Besuch vor Ort für Kunden wieder attraktiver zu machen, sollten sich Banken vor allem eins fragen: Was wünscht sich der Kunde und was bringt ihm den größten Nutzen? Technik darf nicht zum Selbstzweck werden. Denn die beste Innovation bringt nichts, wenn sie am Kundenbedarf vorbeigeht. Entscheidend ist deshalb, seine Kunden genau zu kennen. Datenanalysen sind dafür eines der wichtigsten Instrumente. Wenn die Filiale dem Kunden einen Mehrwert bietet, hat sie weiterhin ihre Daseinsberechtigung und wird um das Online-Geschäft ergänzt.

Sie möchten mehr über die Digitalisierung des Finanzsektors und smarte Bankfilialen erfahren? Klicken Sie hier.

Teilen:
Die Transformation der Software-Architektur für das IoT

Die Transformation der Software-Architektur für das IoT

Letztes Jahr etablierte die Software AG einen Wissenschaftlichen Beirat. Das Gremium bietet der Software AG durch seine wissenschaftliche Perspektive wertvolle Impulse für (potenzielle) neue Technologietrends. In dieser Artikel-Serie beleuchten die Experten ihre Forschungsgebiete und geben einen kurzen Ausblick, wie sich diese künftig entwickeln werden. Prof Dr. Reinhard Schütte leitet den Lehrstuhl für Wirtschaftsinformatik und integrierte  Informationssysteme der Universität Duisburg-Essen und befasst sich mit den Themen Enterprise Systems, IS-Architekturen, Digitalisierung von Institutionen, Informationsmodellierung sowie wissenschaftstheoretische Probleme der Wirtschaftsinformatik.

Die Objekte der realen Welt und die informationstechnischen Objekte, die Gegenstand von Informationssystemen sind, wachsen stetig zusammen. Diese Entwicklung, die sich in vielen Schlagwörtern der Digitalisierung wie Smart Homes, Smart Cities, Smart Cars etc. ausdrückt und unter dem Rubrum „Internet of Things“ subsumiert wird, stellt softwarearchitektonische Herausforderungen an die Institutionen, die diese smarten Objekte miteinander über eine Softwarearchitektur verbinden möchten. Im Gegensatz zu traditionellen, auch als monolithisch bezeichneten Architekturen mit der gemeinsamen Nutzung von Soft- oder Hardwareressourcen wird bei dem Anwendungsszenario verteilter Objekte eine hohe Unabhängigkeit der gemeinsam genutzten Ressourcen erforderlich. Ein aktuell besonders erfolgversprechender Architekturansatz für verteilte Anwendungen ist der auf Microservices basierende Architekturstil.

„Services“ sind Softwareprogramme, die eine dedizierte betriebswirtschaftliche oder technische Aufgabe unterstützen. Microservices können als eine Radikalisierung des „Service-oriented Computing“ verstanden werden. Softwaresysteme werden über Microservices quasi atomisiert, indem sie kohäsive und unabhängige Prozesse in Softwarekomponenten abbilden, die nur über Nachrichten miteinander interagieren. Eine Microservice-Architektur ist für verteilte Applikationen konzipiert, in der die einzelnen Komponenten Microservices sind.

Prof. Dr. Reinhard Schütte

Die Unabhängigkeit der Microservices voneinander und die Fokussierung auf die Funktionen oder Prozesse, die der Aufgabenrealisierung dienen, bilden die Vorteile dieses Architekturstils. Die unabhängige Konzeption, das unabhängige Design und die unabhängige Entwicklung werden beispielsweise durch die Nutzung dedizierter Datenbanken für einen Service gefördert. Damit sind die Wartung, Weiterentwicklung, der Test und der Betrieb von Softwaresystemen nicht so engen Integrationsrestriktionen unterworfen wie dies bei monolithischen Ansätzen der Fall ist.

Bei den unter Internet of Things diskutierten Problemen werden dezentrale Objekte mit vielfältigen Daten, unter anderem von Sensoren oder Aktoren, bereitgestellt und einer dezentralen softwaretechnischen Steuerung der Objekte konnektiert. Die verteilte Entwicklung und Weiterentwicklung der Software ist in diesem Innovationsumfeld nicht durch eine zentrale Koordination realisierbar. Es bedarf diverser technisch motivierter Plattformvorgaben, unter anderem die Konnektivität, die Sicherheit und die Visualisierung betreffend. Eine semantische Vereinheitlichung der Domäne erscheint zentral vor dem Hintergrund der geforderten Realisierungsgeschwindigkeit jedoch nicht möglich zu sein.

Die Diskrepanz zwischen der faktischen Software- und einer Microservice-basierten Architektur stellt in der Regel ein Transformationsproblem für die Unternehmen dar. Software-Architekturansätze wie ADAMOS als IoT-Plattform bieten hier eine softwaretechnische Möglichkeit, um die Forderung nach einer agilen Softwareentwicklung auf Basis einer die erforderlichen Dienste bereitstellenden Plattform zu erfüllen.

Lesen Sie hier alle weiteren Beiträge des Wissenschaftlichen Beirats der Software AG:

Teilen: