Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz ist derzeit in aller Munde. Analysten sagen der neuen Technologie enormes Potenzial für die Wirtschaft voraus. Unternehmen quer über alle Branchen hinweg setzen sich mit den Möglichkeiten von maschinellem Lernen und automatisierten Entscheidungen auseinander. Doch die Umsetzung wird vor allem durch eines ausgebremst: den Fachkräftemangel.

Wenn man sich die Masse an Medien- und Social-Media-Meldungen zum Thema KI ansieht, scheint künstliche Intelligenz heute nahezu allgegenwärtig. Produktankündigungen, Forschungsergebnisse und Artikel, die sich mit den Möglichkeiten von KI auseinandersetzen, überfluten den Markt. Im privaten Alltag findet KI bereits große Akzeptanz. So zeigt eine aktuelle Studie des Branchenverbandes Bitkom, dass drei Viertel der befragten Bundesbürger KI-basierte Empfehlungen für optimale Reiseverbindungen gut finden, und 69 Prozent freuen sich, wenn bei der Internetsuche dank künstlicher Intelligenz die besten Ergebnisse ganz oben stehen.

KI ist in der Praxis angekommen

Auch im Unternehmensumfeld rauchen derzeit viele Köpfe, wie man am besten von KI profitieren kann. Über alle Branchen hinweg gibt es bereits zahlreiche Anwendungen. In der Industrie optimieren selbstlernende Algorithmen zum Beispiel mit vorausschauender Wartung die Produktion. Im Banken- und Versicherungsumfeld helfen intelligente Systeme dabei, Betrugsfälle in Echtzeit aufzudecken und zu vermeiden. Und in der Automobilbranche entwickeln die Hersteller mit Hochdruck das autonome Fahren. Laut einer aktuellen IDC-Studie hat ein Viertel der deutschen Unternehmen bereits KI-Projekte umgesetzt, und 69 Prozent planen dies in den nächsten zwölf Monaten. Den Analysten zufolge werden die weltweiten Ausgaben für künstliche Intelligenz und Machine Learning bis 2020 auf über 40 Milliarden US-Dollar steigen.

Warum diese Begeisterung? Die Antwort liegt auf der Hand: Künstliche Intelligenz und maschinelles Lernen bieten Unternehmen die Möglichkeit, das Potenzial ihrer Daten erst richtig auszuschöpfen. Denn mit dem Internet der Dinge wächst die verfügbare Datenmenge ins Unendliche. Es reicht jedoch nicht aus, Informationen einfach nur zu sammeln, man muss sie auch in Wissen verwandeln. Um dies bei der wachsenden Datenflut zu meistern, kommen selbstlernende Algorithmen ins Spiel.

Fachkräftemangel als größte Herausforderung

Künstliche Intelligenz ist allerdings kein Selbstläufer. Damit sie überhaupt erfolgreich sein kann, braucht sie nicht nur Hochleistungs-Technik, sondern auch Menschen. Unternehmen benötigen Data Scientists, die geeignete Datenquellen für eine Fragestellung identifizieren und die Analysen vorbereiten. Sie müssen unter anderem passende analytische Modelle erstellen, Tools auswählen und interdisziplinär über den Tellerrand hinausschauen. Außerdem sind Data Engineers gefragt, die die Daten bereinigen, aufbereiten und analysefähig machen.

Doch solche Fachkräfte sind Mangelware und auf dem Markt heiß begehrt. Laut der bereits oben erwähnten IDC-Studie fehlt es in mehr als 80 Prozent der befragten Unternehmen an geeigneten Spezialisten. Händeringend gesucht werden Data Scientists, Entwickler, Datenbank-Manager, Business-Analysten sowie Trainer. Zwar gibt es an deutschen Universitäten bereits zahlreiche Studiengänge mit dem wohlklingenden Abschluss Data Scientist, doch bis diese Absolventen auf den Arbeitsmarkt kommen, dauert es noch einige Zeit. International sieht es nicht viel besser aus. McKinsey beispielsweise prognostiziert, dass bis 2024 alleine in den USA 250.000 Data Scientists fehlen werden.

Keine Zeit zu verlieren

Unternehmen sollten sich daher nicht nur darauf konzentrieren, neue Fachkräfte zu rekrutieren. Genauso wichtig ist es, Mitarbeiter weiter zu qualifizieren und fehlendes Know-how aufzubauen. Die Bitkom Akadmie bietet z.B. hierfür seit Kurzem in Zusammenarbeit mit dem Deutschen Forschungszentrum für KI (DFKI) den bundesweit ersten Zertifikatslehrgang „Ausbildung zum KI-Manager“. Außerdem können Unternehmen durch Zusammenarbeit mit externen Spezialisten Know-how-Lücken schließen. Denn eines ist klar: Abwarten ist keine Lösung. Im internationalen Vergleich liegt Deutschland im KI-Bereich nur im Mittelfeld, so die IDC-Studie. Es wird also höchste Zeit, mit der Aufholjagd zu beginnen.

Hier erfahren Sie mehr über die KI-Angebote der Software AG.

Teilen:
IT-Architekturen im Wandel

IT-Architekturen im Wandel

Digitale Plattformen bieten Unternehmen die nötige Agilität und Flexibilität, um die unternehmenseigene IT-Architektur wirkungsvoll zu gestalten und den Weg der Digitalisierung erfolgreich zu beschreiten. Bisher eingesetzte Standardsoftware erreicht schnell die Grenzen der Flexibilität, wenn aufgrund eines neuen Geschäftsmodells neue Prozesse und  Organisationsstrukturen schnellstmöglich implementiert werden müssen. Über den Innovationsfaktor „Software“ und die richtige IT-Architektur für die Digitalisierung haben wir mit Dr. Wolfram Jost, Chief Technology Officer der Software AG, gesprochen.

Dr. Jost, sind Altsysteme – gerade in geschäftskritischen Bereichen – eine unüberwindbare Hürde auf dem Weg zum digitalen Unternehmen?

Nein, eine Anwendungs- und Technologie-Architektur wird selten von Grund auf neu entwickelt. Im Gegenteil: Ältere Systeme werden oft gebraucht, um zentrale Geschäftsprozesse entscheidend zu unterstützen. Der wesentliche Wert dieser Systeme liegt in der Geschäftslogik, die über viele Jahre entwickelt wurde und häufig einen Differenzierungsfaktor im Wettbewerb darstellt. Der geeignete Ansatz für die Digitalisierung ist daher eine Modernisierung, also ein Facelifting vorhandener Anwendungen. Diese Modernisierung kann sowohl am Front End (User Interface) als auch im Back End (Application Integration) stattfinden.

Wie sieht die Einbindung von traditionellen Systemen aus?

Über offene Programmierschnittstellen lassen sich ältere Anwendungen mit webbasierten, modernen Benutzeroberflächen ausstatten. Eine weitere Chance für digitale Wertschöpfung ist die Integration von traditionellen Applikationen in Cloud- oder mobile Anwendungen. Eine Modernisierung des „Bestands“ führt oft zuverlässiger und effizienter zum Erfolg, als eine bewährte Lösung komplett aufzugeben und durch eine Neuentwicklung zu ersetzen. Diese Neuentwicklungen scheitern in den allermeisten Fällen, weil man das, was man über Jahrzehnte mit viel Know-how entwickelt hat nicht mal „schnell“ neu entwickelt. Dabei handelt es ich hier primär nicht um ein technologisches, sondern vielmehr um ein fachliches Problem. Das domänenspezifische Know-how ist oft nicht mehr im dem Maßen vorhanden, wie es sein müsste, um alles nochmals neu zu entwickeln. Ein weiterer Punkt ist, dass bei solchen Neuentwicklungsprojekten häufig ein „Overengineering“ stattfindet. Es wird versucht, alles was man sich theoretisch vorstellen kann, in das System zu implementieren.

Was genau lässt sich an der genutzten Software ablesen?

Software war und ist DER Innovationsfaktor am Markt und blickt mittlerweile auf eine über 40-jährige Entstehungsgeschichte zurück. In den Anfangsjahren versorgten externe Entwickler Unternehmen mit individuellen, funktionsbezogenen IT-Programmen, die Geschäftsprozesse im Finanz- oder Personalwesen unterstützten. Hardware, Daten und Software waren eine monolithische Einheit. Damals galten Unternehmen als modern und innovativ, wenn sie überhaupt Software nutzten und die Entwicklung erfolgte ausnahmslos individuell für ein Unternehmen. Erstes und einziges Zielsystem war der Großrechner.

Damals beanspruchten Computer noch ganze Räume.

Genau, erst mit der Verkleinerung und „Beschleunigung“ der Hardware und den auf dieser neuen Hardware beruhenden Standardanwendungen fanden die Computer ihren Weg in die Büros. Die Anwendungen wurden von externen Softwareanbietern entwickelt und vermarktet. Softwarepakete von der Stange bedienten nicht mehr nur einzelne Funktionen, sondern mit der Zeit fast sämtliche administrativen Geschäftsprozesse eines Unternehmens. Vorteile waren konsistente Daten, integrierte Geschäftsprozesse, benutzerfreundliche Oberflächen und mehr Wahlfreiheiten bei Hardware und Datenbanksoftware. Durch das Aufkommen des Internets wurde der Browser zum neuen Front End und ermöglichte hierüber den Zugriff auf Geschäftsanwendungen. Damit eröffnete sich ein vollkommen neuer Kommunikations- und Vertriebskanal für Unternehmen, dessen Potenzial wir mit dem Schlagwort E-Business/E-Commerce umschreiben.

Welchen Stellenwert nimmt Software heute ein?

Während bisher Effizienz, Kostenoptimierung und Standardisierung administrativer Geschäftsprozesse im Vordergrund standen, geben digitale Plattformen den Unternehmen heute ihre Innovationsfreiheit zurück: Dank der schnellen Entwicklung und Integration innovativer Anwendungen auf der Basis von plattformbasierten Softwarearchitekturen können sie ganz neue Geschäftsmodelle entwickeln. Die Verbesserung der Customer Experience ist hierbei das Schlagwort. Die Wünsche, Bedürfnisse und das Kauferlebnis der Kunden und Partner stehen heute im Mittelpunkt des Unternehmens. Daten zum Kauferlebnis werden möglichst in Echtzeit analysiert. Deren Rückmeldungen bildet die Basis, um neue, digitale Kundenerlebnisse zu schaffen.

Welche Bausteine sind für eine digitale Plattform erforderlich?

In-Memory Data Stores, Integration, API-Management, Process Automation, Analytics sowie Business Design und IT-Portfolio-Management – das sind die zentralen Softwarebausteine einer digitalen Technologieplattform, die jedes Unternehmen braucht. Alle digitalen Fähigkeiten sind Microservice-orientiert, API-fähig und ereignisbasiert. Eine digitale Plattform bildet das Fundament für die digitale Architektur des Unternehmens. Sie stellt alle zentralen Funktionen und Komponenten bereit, um digitale Architekturen und Applikationen für innovative Anwendungsszenarien zu konzipieren, zu implementieren und zu managen. Damit bestimmen die Unternehmen wieder selbst ihren Innovationszyklus – nicht der Anbieter der Standardsoftware.

Wo liegen die Herausforderungen beim Aufbau einer solchen Architektur?

Zentral für den richtigen Zuschnitt einer Technologiearchitektur sind die von der Anwendung zu verarbeitende Datenmenge, Nutzerzahlen sowie die gewünschte Flexibilität, Performance und Skalierbarkeit. Ein Entwickler läuft stets Gefahr, dass er den Zuschnitt zu groß oder zu knapp dimensioniert. Die Folge können mangelnde Prozessunterstützung, fehlende Agilität und Skalierbarkeit, umständliches Betriebsmanagement und geringe Benutzerakzeptanz sein. Bei jedem Unternehmen ist der Aufbau einer digitalen Arichitektur anders – es gibt kein allgemeingültiges Standardkonzept. Solche Architekturen entstehen auch nicht über Nacht. Sondern sie entwickeln sich über die Zeit.

Gibt es so etwas wie ein Herzstück in einer digitalen Architektur?

Ja, das sind die Integrationstechnologien. In heterogenen und verteilten Architekturen ist Integration eine core capability. Sie dient dem Design, der Implementierung und dem Management von komplexen Integrationsflüssen. Ihre wichtigsten Funktionen sind Routing, Mapping, Transformation, Orchestrierung, Sicherheit und Mediation. Die entwickelten Integrationsflüsse werden als Microservices mit offenen Schnittstellen bereitgestellt, die kleinere Softwaremodule einer größeren, komplexen Integrationsanwendung sind. Sie können unabhängig voneinander implementiert, bereitgestellt, aktualisiert und verwaltet werden.

Digitale Architekturen sind also für Unternehmen das A und O auf dem Weg in die digitale Transformation?

Genau. Die Architektur bestimmt die Skalierbarkeit, Performance, Sicherheit, Wartbarkeit und Flexibilität der digitalen Anwendungen. Zu beachten ist außerdem, dass digitale Architekturen ihren vollen Nutzen nur dann entfalten, wenn die dahinter liegenden fachlichen Anwendungskonzepte differenziert und innovativ sind. Doch mindestens genauso wichtig sind Geschäftsmodellierung und IT-Portfolio-Management. Denn: Ohne zu wissen, was die eigentlichen betriebswirtschaftlichen Zusammenhänge sind und wie man den Übergang vom Ist- zum Soll-Zustand managen kann, wird die digitale Transformation zwangsläufig scheitern.

Mehr zum Thema digitale Transformation lesen Sie hier.

Teilen:
Interview mit Dr. Michael Schmitt von Sensor-Technik Wiedemann: Die Zukunft der Maschinen ist digital

Interview mit Dr. Michael Schmitt von Sensor-Technik Wiedemann: Die Zukunft der Maschinen ist digital

In Stuttgart, München und Hamburg machte die IoT Innovation Tour 2018 bereits im Mai Station. Experten aus Industrie, Logistik und Handel stellten ihre besten IoT-Projekte vor und erläuterten, was Unternehmen benötigen, um am Zukunftsthema Industry of Things teilzunehmen. Dr. Michael Schmitt, Geschäftsführer der Sensor-Technik Wiedemann GmbH (STW), erläutert im Interview, welche Möglichkeiten sich durch IoT für den Maschinenbau ergeben.

Herr Schmitt, wie verändert IoT das Geschäft der Maschinenbauer?

Unser Unternehmen ist in einer Zeit entstanden, als Maschinenbauer noch selbst Maschinen gebaut haben. Heute hingegen stehen zunehmend nicht mehr die Maschinen im Vordergrund, vielmehr geht es um den Arbeitsprozess. Durch die Vernetzung von Prozessdaten entstehen ganz neue Geschäftsmodelle.

Was meinen Sie mit neuen Geschäftsmodellen? Können Sie das näher erläutern?

Endkunden haben heute nicht mehr die Notwendigkeit, Maschinen zu kaufen, sondern können diese einfach mieten, beispielsweise im Straßenbau. Abrechnungen erfolgen dann nicht pauschal, sondern benutzungsabhängig. Das bedeutet, der Kunde bezahlt nur das, was er an Maschinenleistung verbraucht hat. Das senkt bei vielen Unternehmen die Hemmschwelle, denn sie müssen keine teuren Investitionen tätigen und können Maschinen ganz bedarfsorientiert anfordern und flexibel einsetzen. Dem Maschinenbau wiederum eröffnet dieses Konzept neue Möglichkeiten, digitale Services rund um ihre Produkte anzubieten.

Welche Möglichkeiten zum Beispiel?

Maschinendaten sind die neuen Investitionsgüter. Unternehmen mit einem bestehenden Geschäft können dieses erweitern, beispielsweise durch das genannte Konzept „mieten statt kaufen“, also die Abrechnung nach Nutzung. Darüber hinaus erfahren Unternehmen dank Daten mehr über ihre Maschinen, etwa ob sie eine Wartung durchführen müssen oder wie die Maschine tatsächlich genutzt und dahingehend optimiert werden kann. Auch darauf können sich neue Möglichkeiten ergeben. Das war für uns als Komponentenhersteller sehr schnell einleuchtend und wichtig. Durch die Analyse der erlangten Daten erhalten wir umfangreiches Wissen über unsere Maschinen, das uns zu mehr Effizienz und Effektivität verhilft. Zusätzlich wird die Digitalisierung im Zusammenspiel mit anderen Megatrends wie Elektrifizierung auch die Art und Weise verändern, wie Maschinen letztendlich aussehen. Früher wurden Maschinen immer groß konzipiert, damit die Kosten für den Betreiber stetig abnehmen. Entwicklungen wie autonomes Fahren und Arbeiten im Verbund machen das jedoch überflüssig. In absehbarer Zeit werden Maschinen also deutlich kleiner werden.


Dr. Michael Schmitt, Geschäftsführer der Sensor-Technik Wiedemann GmbH (STW)

Was bedeutet das für den Markt?

Der Markt befindet sich gerade in rapider Veränderung: Durch die Digitalisierung schieben sich neue Wettbewerber zwischen Bauunternehmer und Auftraggeber. Diese bieten datengetriebene Services an, die ich zuvor beschrieben habe. Sie stellen nicht die Maschine, sondern die Leistung in den Vordergrund und überholen so alteingesessene Unternehmen. Zwar handelt es sich häufig um Start-ups, was jedoch nicht heißt, dass ausschließlich junge Leute Kompetenzen im Bereich Digitalisierung haben. Zwei Kernkompetenzen müssen diese disruptiven Digitalunternehmen mitbringen: Sie brauchen einerseits Wissen über Prozesse in den Branchen, die sie fokussieren. Andererseits müssen sie natürlich eine gewisse IT-Affinität mitbringen. Das können auch Branchenkenner vorweisen, die sich mit neuen Geschäftsmodellen selbstständig machen.

Heißt das, dass langfristig Mittelständer von Start-ups verdrängt werden?

Nein, natürlich nicht. Aber der Markt verändert sich und damit auch die Bedingungen und Voraussetzungen, die Wachstum und Fortbestand absichern. Der deutsche Mittelstand – spürbar gerade im Maschinenbau – ist es gewohnt, Lösungen im eignen Haus und vor allem alleine umzusetzen. Unternehmen bauen ihre Maschinen selbst und wir haben es häufig erlebt, dass sie ihre IT auch im Alleingang umsetzen wollen. Der Weg der Maschinendaten in die Cloud soll im besten Fall dann nicht über einen Dienstleister, sondern aus eigener Kraft heraus erfolgen. Dabei könnten Partner helfen, die neuen Herausforderungen zu meistern und neue Märkte zu erschließen; und das auch noch schneller. Wie so eine Zusammenarbeit mit einem Partner aussehen kann, haben wir selbst ja mit Cumulocity erlebt.

Wie sind Sie auf die Lösung Cumulocity IoT der Software AG gestoßen?

Dass IoT-Plattformen die beste Lösung für datengetriebene Geschäftsmodelle sind, hatten wir bei unseren Recherchen bereits festgestellt. Als wir uns intensiver mit dem Thema „Digitalisierung“ befasst haben, gab es die Überlegung, eine eigene Plattform zu bauen. Auf einer Konferenz hatte ich dann die Chance, den Geschäftsführer von Cumulocity kennenzulernen, was mich überzeugt hat, eine Partnerschaft einzugehen. Mit Cumulocity – ebenfalls ein mittelständisches Unternehmen – haben wir einen Partner auf Augenhöhe gefunden, was das Arbeiten gleich einfacher und angenehmer macht.

Wohin wird die Reise im Bereich IoT und Maschinenbau gehen?

Der Markt wandelt sich gerade hin zu datengetriebenen Diensten. Wer weiterhin bestehen will, braucht inzwischen zusätzlich zur reinen Technik ein serviceorientiertes Geschäftsmodell. Eine solche Neuaufstellung sollten Unternehmen am besten durch Partnerschaften realisieren, um sich weiterhin auf ihre eigentlichen Kompetenzen konzentrieren zu können. Wenn Unternehmen aufhören, alles selbst umzusetzen, gelangen sie eher zu einer digitalen Strategie. Dass Unternehmen das verstehen, zeigt sich auch in der Arbeit mit unseren Kunden und Partnern: Während wir früher mit dem Verantwortlichen für Technik gesprochen haben, ist unser Ansprechpartner nun das Management. Das Thema ist inzwischen Chefsache.

Treffen Sie Dr. Michael Schmitt und weitere Sprecher live auf unserer IoT Innovation Tour in Düsseldorf, Wien und Zürich. Weitere Informationen zu der Partnerschaft von Sensor-Technik Wiedemann und der Software AG erhalten Sie hier.

Teilen:
Mitmachen statt zusehen: Software AG bietet „Industry 4.easy“ auf der CEBIT 2018

Mitmachen statt zusehen: Software AG bietet „Industry 4.easy“ auf der CEBIT 2018

Wer dem IoT bisher nur in der Theorie begegnet ist, hat auf dem CEBIT-Festival 2018 die Möglichkeit, innerhalb weniger Minuten ein eigenes IoT zu bauen und in der Praxis auszuprobieren: Als einer der Marktführer im Bereich IoT-Technologie bietet die Software AG vom 11. bis 15. Juni 2018 in Hannover kurze Workshops, in denen Besucher erleben, wie einfach der Einstieg ins IoT-Zeitalter ist. Anschließend können sie sich am Stand C44 in Halle 17 anhand von acht interaktiven Showcases davon überzeugen, welche innovativen Anwendungsfelder im IoT möglich sind – von Smart Devices im intelligenten Zuhause bis hin zur vernetzten Fabrik der Zukunft.

Das IoT ist keine Zukunftsvision mehr, sondern längst greifbare Realität in allen Branchen. Passend dazu gestaltet die Software AG ihren Auftritt bei der diesjährigen CEBIT nach dem Motto „Experience Everything“ und präsentiert ihr breites IoT-Portfolio in verschiedenen Demos, bei denen die Messebesucher sich aktiv einbringen können. Im Zentrum steht dabei der Workshop „Industry 4.easy“, bei dem Besucher ein eigenes IoT mithilfe kleiner Devices bauen können. Er findet täglich um 10:30 und um 14:00 Uhr am Stand der Software AG statt. Weitere Showcases bieten die unterschiedlichsten Mitmach-Möglichkeiten: Bei einem Showcase zu Logistik 4.0 beispielsweise erhalten Teilnehmer eine interne Bestellung und müssen über ein iPad einen Lego-Kran bedienen, um in einem Warenhaus die bestellten Güter auszuwählen und auszuliefern. Abenteuerlustige, die noch tiefer in die digitale Welt abtauchen möchten, können mit Virtual Reality eine Slackline an einem Eisberg in Grönland begehen.

Showcase 1: SMART ENERGY – intelligente Stromnetze

Intelligente Stromnetze (Smart Grids) setzen voraus, dass Energieerzeuger jederzeit wissen, wie viel Strom sie aktuell und zukünftig erzeugen. Cumulocity IoT, die IoT-Plattform der Software AG, kann die Erzeugung, Verteilung und Speicherung von Energie koordinieren: Über ein Smart Grid können die Unternehmen auf Angebot und Nachfrage in Echtzeit reagieren und ihre Anlagen entsprechend steuern – auch aus der Ferne. Der Showcase „Smart Energy“ bildet modellhaft die smarte Energieversorgung einer ganzen Stadt ab. Besucher erleben, wie Cumulocity IoT Schwankungen und Störungen im Netz minimiert und die Energieerzeuger dabei unterstützt, ihren Kunden den richtigen Mix aus erneuerbaren und fossilen Energien anzubieten. Dabei dürfen die Besucher selbst Hand anlegen und ein intelligentes Netz aus einem Windpark, einem Gaskraftwerk und einer Photovoltaikanlage steuern.

Showcase 2: SMART CITY – intelligente Mülltonnen und vernetzte Straßenbeleuchtung

Smart City macht Städte effizienter, fortschrittlicher und sozial inklusiver. Besucher erleben live, welche Vorteile Bürger davon haben, wenn sich Städte für einen schnellen, offenen und sicheren digitalen Ansatz entscheiden. Die Demo zeigt, wie Abfallentsorgung im Zeitalter von IoT verbessert werden kann – mit smarten Sensoren an Mülltonnen und über ein mobiles Portal für den Service. Beispielsweise verschickt das System eine Warnung, sobald eine Straßenlampe ausgetauscht werden muss. Alle Informationen stehen in Echtzeit zur Verfügung. Dieser Showcase gibt Zuschauern und Teilnehmern einen Einblick in die kommunalen Dienstleistungen einer smarten City, wie sie schon heute möglich sind.

Showcase 3: SMART CITY – Parkmanagementsysteme

Der Kampf um einen Parkplatz hat ein Ende – Cumulocity IoT von Software AG bringt Navigationskarten und Daten über Parkmöglichkeiten zusammen: Auf diese Weise können Autofahrer schnell und einfach mitten im Stadtzentrum nach einem Parkplatz suchen und ihn gleich reservieren. Die Information über den Standort wird sofort an das Navigationssystem des Autos übermittelt, das den Fahrer zu seinem reservierten Parkplatz navigiert. Dieses Beispiel zeigt, wie Predictive Analytics und Condition-Monitoring-Systeme Parkplatzanbieter dabei unterstützen können, dass jeder Parkplatz genutzt wird, sobald er verfügbar ist. In diesem smarten Parkmanagementsystem steckt viel Technologie – dank Cumulocity IoT, webMethods, ARIS und Apama hat die leidige Parkplatzsuche endlich ein Ende.

Weitere Informationen zum CEBIT-Auftritt der Software AG, Gesprächsterminen mit Experten vor Ort und Guided Tours finden Sie hier.

Teilen:
Bankfilialen: Totgesagte leben länger

Bankfilialen: Totgesagte leben länger

Jede Woche schließen in Deutschland im Durchschnitt 36 Bankfilialen. Hat der gute alte Service-Schalter ausgedient? Die Antwort lautet Nein, denn damit verlieren Banken eine wichtige Schnittstelle zum Kunden. Filialen müssen sich neu erfinden. Der Einzelhandel macht vor, wie man mit innovativen Konzepten das Kundenerlebnis verbessert. Vieles davon lässt sich auch auf den Bankensektor übertragen.

Das Sterben von Bankenfilialen geht weiter: Wo vor Kurzem noch eine Sparkasse oder eine Volksbank war, steht jetzt eine Döner-Bude. Vor allem in ländlichen Gebieten müssen Kunden heute oft weit fahren, wenn sie noch Bankgeschäfte am Schalter erledigen möchten. Laut einer aktuellen Bain-Studie schließen in Deutschland wöchentlich 36 Bankfilialen, und ein Kreditinstitut verabschiedet sich sogar endgültig vom Markt. Pro Woche verlieren mehr als 400 Bankangestellte ihren Job. Geht künftig alles nur noch online?

In den USA ist ein gegenläufiger Trend erkennbar. Hier setzen große Banken wieder verstärkt auf die Filiale. Zwar treiben sie parallel auch ihr digitales Angebot voran – doch sie haben erkannt, dass der persönliche Kontakt und eine physische Präsenz vor Ort das A und O für gute Kundebeziehungen sind. So plant JPMorgan Chase zum Beispiel, 400 neue Filialen zu eröffnen. Auch die TD Bank baut ihr Filialnetz aus.

Mit exzellenter Beratung und Erlebnissen punkten

Die Filiale ist immer noch eine wichtige Kundenschnittstelle. Während Kunden alltägliche Bankgeschäfte vorwiegend online erledigen, wünschen sie sich für größere Finanzentscheidungen wie beispielsweise eine Immobilienfinanzierung oder Versicherung eine persönliche Beratung. Dafür bleibt das vertrauliche Gespräch vor Ort mit einem erfahrenen Berater weiterhin die erste Wahl. Auch etliche Banken in Deutschland haben das erkannt. Statt Filialen zu schließen, versuchen sie, diese wieder attraktiver für den Kunden zu gestalten.

Die Deutsche Bank setzt zum Beispiel auf Premium-Filialen, in denen sie ihre Beratungskompetenz in den Mittelpunkt stellt und moderne Technik einsetzt. Berater vor Ort können Experten auf der ganzen Welt per Videokonferenz zu einem Gespräch hinzuschalten. Kostenloses WLAN, der Einsatz von iPads und Co-Browsing mit dem Berater bieten ein modernes Erlebnis.

Auch die Commerzbank eröffnet in großen deutschen Städten Flagship-Stores, in denen ein Team aus jeweils 50 bis 60 Beratern bereitsteht. Kunden können sich auf Tablets über Angebote informieren. Großzügige Architektur, ein Lounge-Bereich und eine Kaffeebar sorgen für eine angenehme Atmosphäre.

Was Banken vom Einzelhandel lernen können

Nicht nur Banken kämpfen mit sinkenden Kundenzahlen. Auch der Einzelhandel ist davon betroffen – hat aber bereits Gegenmittel entwickelt. Einige Konzepte lassen sich gut auf den Bankensektor übertragen. Eine Möglichkeit wäre zum Beispiel, Kunden, die schon längere Zeit nicht mehr in der Filiale waren, anzusprechen und mit personalisierten Nachrichten auf Angebote aufmerksam zu machen. Diese sollten exakt auf die aktuellen Bedürfnisse des Kunden zugeschnitten sein. Dafür ist es wichtig, anhand von Kundendaten einen möglichst umfassenden Blick auf die Customer Journey zu gewinnen. Mit Location Based Marketing könnten Banken Kunden sogar identifizieren, wenn sie sich gerade in der Nähe einer Filiale befinden oder vorbeilaufen – und sie dann zum Besuch in der Filiale einladen.

Betritt der Kunde die Filiale, könnten ihn Monitore mit personalisierten Informationen auf attraktive Angebote aufmerksam machen, ihm Auswahlprozesse erleichtern oder ihn auf den nächsten freien Schalter oder die Schlange mit der kürzesten Wartezeit hinweisen.

Banken sollten zudem genau analysieren, zu welchen Zeiten Kunden in ihre Filiale kommen, welche Angebote sie dort vorwiegend nutzen und wo es vielleicht lange Wartezeiten gibt. Anhand dieser Daten können sie dafür sorgen, dass zu den Stoßzeiten ausreichend viele Berater für die am meisten nachgefragten Bereiche vor Ort sind und somit ihren Service verbessern. Angebote, die stark genutzt werden, können sie ausbauen und andere reduzieren. So gestalten Banken ihre Filialen insgesamt effizienter und sparen Kosten.

Den Mehrwert für den Kunden in den Mittelpunkt stellen

Um dem Filialsterben entgegenzuwirken und den Besuch vor Ort für Kunden wieder attraktiver zu machen, sollten sich Banken vor allem eins fragen: Was wünscht sich der Kunde und was bringt ihm den größten Nutzen? Technik darf nicht zum Selbstzweck werden. Denn die beste Innovation bringt nichts, wenn sie am Kundenbedarf vorbeigeht. Entscheidend ist deshalb, seine Kunden genau zu kennen. Datenanalysen sind dafür eines der wichtigsten Instrumente. Wenn die Filiale dem Kunden einen Mehrwert bietet, hat sie weiterhin ihre Daseinsberechtigung und wird um das Online-Geschäft ergänzt.

Sie möchten mehr über die Digitalisierung des Finanzsektors und smarte Bankfilialen erfahren? Klicken Sie hier.

Teilen:
Ende-zu-Ende-Sicherheit ist ein Muss

Ende-zu-Ende-Sicherheit ist ein Muss

Letztes Jahr etablierte die Software AG einen Wissenschaftlichen Beirat. Das Gremium bietet der Software AG durch seine wissenschaftliche Perspektive wertvolle Impulse für (potenzielle) neue Technologietrends. In dieser Artikel-Serie beleuchten die Experten ihre Forschungsgebiete und geben einen kurzen Ausblick, wie sich diese künftig entwickeln werden. Prof Dr. Michael Waidner ist der Leiter des Fraunhofer-Instituts SIT und Inhaber des Lehrstuhls für Sicherheit in der Informationstechnik an der Technischen Universität Darmstadt. Er beschäftigt sich mit den Themen Cybersicherheit und Datenschutz sowie mit neuen Technologien wie etwa Blockchain.

Prof. Dr. Michael Waidner

Die Vernetzung produktionstechnischer Anlagen bietet großes Potenzial zur Steigerung von Effizienz und Agilität. Durch Cloud-Technologien ist der Status der Maschinen und der Produktion insgesamt immer im Blick und Änderungen an der Analagenkonfiguration können jederzeit flexibel nach Marktlage erfolgen. Auf der anderen Seite wirft diese Vernetzung auch neue Fragen der IT-Sicherheit auf. Information und Steuerung sind nun nicht mehr in physikalischen Anlagen, sondern in Software abgebildet und somit vielfältigen Angriffen ausgesetzt. Bei mangelnder Absicherung dieser Software können beispielsweise Konkurrenten Einblick in Produktionsverfahren erhalten oder Saboteure gar die Produkte manipulieren oder die Produktion stilllegen.

Dass Angriffe auf industrielle Anlagen keine theoretischen Konstrukte sind, wurde bereits 2010 mit dem Stuxnet-Wurm offenbar. Notwendig ist, alle eingesetzten Softwareprodukte automatisiert auf typische Schwachstellen in Code und Konfiguration zu untersuchen. Dies schließt in einer modernen digitalen Fabrik beispielsweise Webanwendungen, cloudbasierte Plattformanwendungen, mobile Apps und auf den Produktionsanlagen selbst ausgeführte Steuersoftware ein. Die Überprüfung muss, insbesondere in Zeiten agiler Entwicklungsprozesse, bei jedem Update neu erfolgen. Da eine manuelle Begutachtung des Systems durch Experten aufgrund der Größe und Komplexität realistischer Installationen nicht zu leisten ist, sind automatisierte Scanner unerlässlich.

Wo Schwachstellen nicht geschlossen werden können, müssen diese isoliert werden, um ein Ausnutzen zu verhindern oder zumindest unverzüglich zu detektieren. Hierzu ist es wichtig, Anomalien frühzeitig zu erkennen und dem Betreiber zu ermöglichen, passende Gegenmaßnahmen zu ergreifen. Betreiber vertrauen zudem darauf, dass eingesetzte Plattformen wie etwa ADAMOS nicht nur sicher sind, sondern auch für die darauf aufbauenden Lösungen einfach nutzbare Sicherheitstechniken bereitstellen. Daher müssen die bereitgestellten Schnittstellen und Funktionen auch für nicht explizit geschulte Entwickler intuitiv sicher nutzbar sein.

Lesen Sie hier alle weiteren Beiträge des Wissenschaftlichen Beirats der Software AG:

Teilen: