API-Management macht Daten verwertbar

API-Management macht Daten verwertbar

In meinen Gesprächen mit Führungskräften internationaler Unternehmen kommt ein Thema fast unweigerlich zur Sprache: wie die Firmen ihre eigene digitale Transformation vollziehen und die dadurch endlich verfügbar werdenden Datenmengen verwerten können. Eine Frage, die Unternehmen fast jeder Branche und Größe beschäftigt, ist beispielsweise was der beste Weg ist, um mithilfe des Internets der Dinge die Daten nutzbar zu machen. Oder wie diese Datenfülle eingesetzt werden kann, um mit den Kunden noch besser zu interagieren, nutzerzentrierte Produkte und Services zu entwickeln und neue intelligente Ökosysteme zu schaffen. Die Antwort: Den Möglichkeiten sind kaum Grenzen gesetzt! Aber alles muss damit beginnen, sämtliche vorhandene Datenquellen zentral zu integrieren und mithilfe von Künstlicher Intelligenz (KI) zu interpretieren. Ohne Integration und Auswertung sind all diese Daten wertlos.

Wenn es um die Technik hinter der Integration geht, sprechen Unternehmer oft das Thema APIs an: „Brauche ich nicht auch APIs, wenn ich alle meine Datenquellen verknüpfen will?“ – dieses Missverständnis begegnet mir immer wieder. Ja, APIs können helfen, Transaktionssysteme, Kundensysteme und andere Datenquellen an ganz unterschiedlichen Standorten miteinander zu verbinden.
Zwei Dinge sind hierbei allerdings von besonderer Bedeutung. Erstens: Bei APIs geht es um mehr als nur um Integration. Sie können beispielsweise der Schlüssel zur Monetarisierung und gemeinsamen Nutzung von Systemen sein, die bereits im Unternehmen vorhanden sind. Zweitens: Für APIs (ebenso wie für Produkte) gilt, die Entwicklung ist nur der erste Schritt in einem Lebenszyklus. Ist der API-Lebenszyklus gut geführt, werden Daten zum Katalysator für Innovation und Wachstum. Ist er schlecht geführt, kann die Entwicklung entweder reine Zeit- und damit Geldverschwendung oder im schlimmsten Falle ein gigantisches Sicherheitsrisiko sein.

APIs sind also wichtig, um das Transformationspotenzial der eigenen Daten auszuschöpfen. Voraussetzung dafür ist das richtige Werkzeug, um den API-Lebenszyklus vernünftig zu steuern.

Der Markt für API-Management-Tools hat in den vergangenen Jahren einen grundlegenden Wandel erfahren: Sechs der führenden Anbieter wurden von Konzernen  übernommen. Die meisten dieser aufgekauften Firmen befinden sich derzeit auf einem absteigenden Ast.

Was bedeutet das für Unternehmen? Eine Firma muss den gesamten Lebenszyklus seiner APIs steuern, um den größtmöglichen Nutzen aus den eigenen Daten zu ziehen, Sicherheit zu garantieren und seine Unternehmenswerte zu monetarisieren.

Es gibt keinen Zaubertrick, mit dem Sie Ihre Organisation zum digitalen Unternehmen transformieren. APIs können Ihrem Unternehmen jedoch das Tor in eine Welt voll neuer Chancen öffnen. Was Sie dafür brauchen, ist ein umfassendes API-Management, das sicherstellt, dass die Innovationen, die durch APIs möglich werden, gewinnbringend genutzt werden.

Am besten wenden Sie sich hierzu an ein Unternehmen, das laut Gartner und Forrester zu den Marktführern gehört. Ein stabiles, unabhängiges und profitables Unternehmen, das seit 50 Jahren seinen Kunden ein zuverlässiger Partner ist.
Bei der Software AG geht es nicht um Zauberei, es geht um Innovation.

 

Teilen:
IoT-Starthilfe für die Industrie

IoT-Starthilfe für die Industrie

Die Software AG und Dell EMC haben eine IoT-Appliance entwickelt, die exakt auf vernetzte Produktionsumgebungen zugeschnitten ist. Hard- und Software sowie Services wurden nach dem „Out-of-the-Box“-Prinzip vorkonfiguriert. So ist die Technik schnell startklar, um riesige Datenmengen bereits am Netzwerkrand zu verarbeiten und nur die relevanten Informationen in die Cloud zu transferieren. Cumulocity IoT Edge bildet das Herzstück der Software-as-a-Service-Appliance, die über Subscription bezogen werden kann. Auch das hat entscheidende Vorteile.

Wie sich Produktionsprozesse verbessern lassen, wenn riesige Datenmengen effizient und sicher mit einer IoT-Appliance verarbeitet werden, verdeutlicht ein Blick in die Hallen eines Automobilherstellers: Dort sind die Karosserien exakt in Positionen gebracht. Pro Workstation sprühen sechs Lackierroboter, und ihre Bahnen werden in das CAD-Modell am Monitor projiziert. Gleichzeitig analysieren Algorithmen verschiedene Parameter wie Lackfluss und Druckluft. Sobald sie Anomalien entdecken, die einen Qualitätsabfall zur Folge haben könnten, stoppt der Anlagenleiter die Lackierroboter sofort, bevor sie weitere Karosserien besprühen. Die IoT-Appliance spart dem Automobilhersteller mühevolle Zusatzrunden und damit Zeit und Geld. Das Out-of-the-Box-Entwicklungskonzept von der Software AG und Dell EMC geht voll auf, da es den Bedarf nach einem schnellen, einfachen und sicheren Umsetzen von IoT-Anwendungen bedient.

Was in der hochperformanten Software-Appliance steckt

Die Basis der IoT-Plug & Play-Lösung bildet die Software-Plattform Cumulocity IoT, die der Marktforscher MachNation als führend im Application Enablement eingestuft hat. Konkret wird Cumulocity IoT Edge der Software AG auf Dell-Server aufgespielt, die mit Intel-Prozessoren arbeiten. Unternehmen erhalten so eine hochperformante und abgestimmte Software-Appliance, die am Netzwerkrand platziert und über Dell-Edge-Gateways mit der Sensorik verbunden wird. Die integrierte Analyse-Engine sorgt für die Fähigkeit, in Echtzeit die Produktionsqualität zu überwachen. Falls sich bestimmte Parameter ändern sollten, können Anwenderfirmen sofort über das Dashboard gegensteuern, ohne Qualitätseinbußen hinnehmen zu müssen. Alle nötigen Services, zugeschnitten auf das einfache Entwickeln von IoT-Lösungen für die Industrie, sind vorinstalliert und vorkonfiguriert – und schnell per Plug & Play gestartet. Dazu bietet die Bibliothek vorgefertigte analytische Modelle. Per Drag & Drop lassen sich Business-Apps migrieren, ähnlich einfach funktioniert das Vernetzen von Endgeräten.

Prinzipiell ist der IoT-Software-Bundle in Kombination mit dem Dell Server geeignet, jedes Fertigungsszenario zu überwachen und zu steuern: von Condition Monitoring in Echtzeit über vorausschauende Wartung oder Produktionsprozessoptimierung bis hin zu Field-Service-Management. Die Stärke der IoT-in-a-Box-Lösung liegt im Edge Computing, was bedeutet, dass sie die Datenmassen nicht in die Cloud überträgt, sondern direkt am Entstehungsort verarbeitet und selektiert. Unternehmen können die Cumulocity IoT Edge im Subscription-Modell beziehen, das auch den Support rund um die Uhr beinhaltet. Das Service-Team spielt die Patches und Backups ein und übernimmt alle anfallenden Migrationen. Alle drei Jahre wird die komplette Appliance ersetzt. So bleibt die IT-Infrastruktur stets aktuell und deckt lückenlos lange Maschinenlaufzeiten ab. Zudem verschafft die geringe Mindestlaufzeit des IT-Stacks Anwendern den nötigen Spielraum, flexibel ihre Geschäftsmodelle an den Wettbewerb anzupassen.

Bereit für On- und Offline-Modus

Cumulocity IoT Edge kann im Offline-Modus betrieben werden, was für einen hohen Sicherheitslevel sorgt, da Daten nicht nach außen abfließen können. In dem Fall darf nur konfigurieren und auf Daten zugreifen, wer die Berechtigung dazu besitzt. Diese hohen Sicherheitsanforderung für eine autonom gesteuerte Anlage haben auch Betreiber kritischer Infrastrukturen zu erfüllen. Im Normalbetrieb analysiert und evaluiert die Edge Plattform Daten, wobei sie nur relevante Informationen in die Cloud weiterleitet. Das spart unnötigen Datenverkehr, Speicherplatz in der Cloud sowie die Kosten für eine hohe Anzahl an registrierten Devices. Welche Cloud ein Unternehmen nutzt, ist dabei unerheblich, da die Appliance voll kompatibel mit allen gängigen Cloud-Anbietern ist und schnell sowie sicher verbindet.

Die IoT-Appliance bietet nicht nur den Vorteil, ein IoT-Projekt schnell zu starten und anzubinden, sondern mit ihr lässt sich eine verteilte Plattformarchitektur aufbauen: Die Durchgängigkeit von APIs zwischen Cloud und Edge sorgt für die reibungslose Interaktion zwischen Plattform, Anwendungen und Geräten. Sowohl die Cloud- als auch die Edge-Plattform verfügen über dieselbe Analyse-Engine. Datenmodelle können so von einem Standort über die Cloud auf andere Produktionsstätten ausgerollt werden. Auch zentral entwickelte Modelle lassen sich über die Cloud für alle Werke bereitstellen. Wer Prozesse in mehreren Hallen oder Produktionsstandorten vielfach replizieren möchte, profitiert von dieser einfachen Skalierbarkeit.

Der IoT-Schnellstart zum Anschauen

Nach der SPS IPC Drives in Nürnberg 2018 hatte Cumulocity IoT Edge auf der Hannover Messe 2019 den nächsten großen Live-Auftritt. Unternehmen aus Industrie und Fertigung konnten sich an den Ständen von Dell EMC und der Software AG informieren, wie sie den Schritt zu komplexen IIoT-Lösungen meistern – und zwar zügig und auf die einfache Art. Das es sich hierbei nicht nur um ein Marketingversprechen handelt, bewiesen die Partner auch, als sie im Februar ein gemeinsames Webinar durchführten. Das beantwortete alle Fragen zum Schnellstart ins IoT: vom Zeit- und Budget-Rahmen bis hin zu den Voraussetzungen und notwendigen Schritten zum Skalieren nach einem initialen Kleinprojekt.

Sie haben das kostenlose Webinar verpasst? Sehen Sie sich hier die Aufzeichnung an.

Live erleben Sie IoT out the Box auf einem der 6 Stopps unserer Innovation Tour 2019. Jetzt anmelden!

 

Teilen:
IoT-Trends 2019 für die Banken- und Versicherungsbranche

IoT-Trends 2019 für die Banken- und Versicherungsbranche

Vom offenen Bankwesen über die nutzungsorientierte Finanzierung bis hin zur Beschleunigung des Internet of Things (IoT). Versicherungen und Finanzdienstleister stehen an der Schwelle zu einem neuen digitalen Zeitalter. Hier kommen die fünf Top-Trends für dieses Jahr:

 

1. Das richtige API-Management

Open Banking (auch API Banking) gewinnt im Zuge der kundenorientierten, digitalen Transformation zunehmend an Bedeutung. Dabei werden APIs nicht nur als reine technische Schnittstelle verstanden, die den Kunden zur Verfügung gestellt werden. Das gesamte Lebenszyklusmanagement zur Skalierung, Kontrolle, Steigerung und Wiederverwendung von APIs spielt eine tragende Rolle. Unternehmen müssen sich Gedanken machen, welche APIs sie zur Verfügung stellen wollen und wo sie Synergien nutzen können. Sowohl intern als auch mit anderen Marktteilnehmern, die in Zeiten der Plattformökonomie zu Kooperationspartnern werden können. Einige Banken haben bereits ihre Strategien für Open Banking definiert und haben ein für sie passendes Modell festgelegt. Andere werden feststellen, dass sie zu spät dran sind, da die attraktivsten Partner bereits Geschäftsbeziehungen eingegangen sind.

 

2. Einfachheit siegt

In den letzten Jahren haben Finanzdienstleister viel Geld für mobile und kundenorientierte Technologien ausgegeben. Sie werden allerdings feststellen, dass sie die Grenzen dessen, was sie ihren Kunden in kontextbezogener Erfahrung liefern können, wenn sie ihre Prozesse nicht vollständig und intelligent automatisieren und dadurch vereinfachen, erreichen werden. Dabei geht es nicht mehr um das Gerät selbst, sondern auch den Kontext, in dem das Gerät verwendet wird. Insbesondere bei einem möglichen Konjunkturrückgang sind Business-Teams gefordert, schnell einen ROI für Technologieprojekte nachzuweisen. Ein pragmatischer und zielgerichteter Einsatz von maschinellem Lernen und robotergesteuerte Prozessautomatisierung wird dazu beitragen, manuelle Fehler und teure Arbeitskräfte, die für Nebentätigkeiten eingesetzt werden, zu reduzieren. Es gilt, Prozesse stark zu verschlanken, um besser auf die zukünftigen Bedürfnisse von Kunden reagieren zu können.

 

3. Die jungen Wilden werden erwachsen

Herausforderer, die bisher noch in die Kategorie Start-Ups und FinTechs fielen, werden bedeutende Marktanteile hinzugewinnen und zu etablierten Banken aufholen. Ein gutes Beispiel hierfür ist die Firma Wirecard, die in diesem Jahr in den DAX aufgestiegen ist und so die Commerzbank verdrängt hat. Eine Herausforderung, der sich sowohl etablierte Banken als auch junge Marktteilnehmer stellen müssen, ist ihre wachsende eigene IT-Infrastruktur. Wenn es zusätzlich zu Kooperationen kommt – zwischen FinTech und Bank oder InsurTech und Versicherung –, müssen sie sich Gedanken darüber machen, wie sie diese erhöhte Komplexität sinnvoll managen und kontrollieren können. Wenn beispielsweise eine Bank ein FinTech übernimmt und in das eigene Haus integriert, müssen Systeme abgelöst oder zeitweise zwei Systeme parallel betrieben werden. Das ist Aufgabe eines IT-Portfolio-Managements.

 

4.  Steigende Relevanz des IoT

Für Versicherungen gewinnt das Internet of Things zunehmend an Relevanz. Gerade für den Industrieversicherungsbereich ist es interessant, IoT-Daten zu erheben und zu verarbeiten. Mithilfe von Sensoren und dem Internet of Things können Flotten, Industrieanlagen, Fabriken oder auch Gebäude überwacht werden. Wie auch im Privatkundengeschäft wird das IoT zu einer Wertschöpfung in der Risiko- und Betrugsprävention und zu verbessertem Schadenmanagement und Kundenbindung beitragen. Innovative Versicherungsunternehmen werden von dieser Wertschöpfung profitieren, indem sie Ökosysteme auf der Basis von IoT-Daten aufbauen und sich intern auf die Verkürzung von Geschäftszyklen konzentrieren.

 

5. Die Qualität zählt

Mit dem Anstieg von ergebnis- und nutzungsbezogenen Kostenmodellen wird sich auch die Finanzierung von Sachanlagen wie Maschinen drastisch verändern. Darlehen werden nicht mehr auf Basis von Zeit, sondern auf Basis des Einkommensstroms, der durch einen Teil der Industrieanlage anhand eines Sensors gemessen und der Bank mitgeteilt wird, vergeben. Je nachdem wie viel der Kunde produziert und verkauft, ist die Tilgungsrate entsprechend hoch. Da Banken grundsätzlich an Ergebnissen interessiert sind, liefern die Sensoren auch einen nützlichen Beitrag für das Risikomanagement. Wie viele Geräte werden benötigt, um denselben Ertrag zu generieren wie ein einzelnes, hochwertiges und gut funktionierendes Gerät? Die Produktqualität wird so zur wichtigsten Komponente des Risikomanagements.

Grundsätzlich gilt es, Prozesse so flexibel und einfach wie möglich zu gestalten, um damit die Bedürfnisse des Kunden befriedigen zu können. Der Kunde steht nach wie vor im Mittelpunkt. Die Technologie ist dabei nur Mittel zum Zweck.

Weitere Informationen zur digitalen Transformation in Banken und Versicherungen erhalten Sie hier.

Teilen:
Die Digitalisierung erfordert Agilität und Geschwindigkeit

Die Digitalisierung erfordert Agilität und Geschwindigkeit

Auf was würden Sie lieber setzen: einen Tanker, der sich nur schwerfällig bewegt, oder ein Schnellboot, das wendig durchs Wasser flitzt und bei Bedarf auch mal einen schnellen Haken schlägt? In der Software-Entwicklung entspricht Standardsoftware dem Tanker.

Viele Unternehmen setzen für ihre großen Anwendungen wie Logistik, Warenwirtschaftssystem und Data Warehouse etablierte Produkte von der Stange ein. Doch da jedes Unternehmen individuelle Prozess-Strukturen hat, müssen die Standards zunächst angepasst werden. Das ist oft aufwändiger und teurer als anfangs gedacht. Zudem erfolgen Änderungen in Release-Zyklen, die zwischen sechs und achtzehn Monaten dauern können. Schnell mal etwas optimieren oder korrigieren? Fehlanzeige! Doch wer kann sich solche Verzögerungen noch leisten, wenn er eigentlich schon vorgestern mit seinem neuen Produkt auf dem Markt sein wollte?

Eine prozessorientierte Software-Entwicklung ist gefragt

Statt dreistellige Millionenbeträge zu investieren, um Standardsoftware aufwändig an die Unternehmens-Prozesse anzupassen, ist es oft rentabler, gleich eigene Software zu entwickeln, die auf den individuellen Workflows aufsetzt. Wer in Prozessen denkt statt in Release-Zyklen, kommt schneller und besser ans Ziel. Dafür ist es zunächst erforderlich, sich über die eigenen Business-Prozesse klar zu werden und sie zu modellieren, um sie anschließend in die einzelnen Schritte zu gliedern und passgenau in der Software umzusetzen. Auch die Anwender profitieren später davon, weil sie auf ihrem Bildschirm genau die Arbeitsschritte sehen, die sie brauchen – und das in genau der Reihenfolge, wie sie sie brauchen. Sie müssen sich nicht in einer komplizierten Standard-Eingabemaske zurechtfinden und keine Schulung absolvieren, um klarzukommen.

Eine digitale Business-Plattform unterstützt die digitale Transformation

Mit einer digitalen Business-Plattform ist es möglich, Prozesse zu planen und nahtlos in der Entwicklung umzusetzen, ohne dass dabei Medienbrüche entstehen. Dank modularem Aufbau können Entwickler Software-Bausteine wiederverwenden, sodass sich der Aufwand deutlich reduziert. Wenn man bedenkt, dass 75 bis 85 Prozent der Funktionen von Anwendungen Software-seitig identisch sind, ist das eine erhebliche Ersparnis. So lässt sich ein neuer Prozess oft schon innerhalb von wenigen Wochen statt Monaten implementieren. Unternehmen können zudem jederzeit Änderungen vornehmen, auch wenn ein Prozess bereits läuft.

Wer nicht auf Grund laufen will, muss umdenken!

Business-Prozesse sind etwas Dynamisches und erfordern in der Software-Umsetzung eine Herangehensweise, die schnelle und flexible Veränderungen ermöglicht. Standardsoftware bewegt sich dagegen nur behäbig. Am Ende muss jeder selbst für sich entscheiden, ob er lieber auf einen Tanker oder auf ein Schnellboot setzt.

Erfahren Sie hier mehr über die Digital Business Platform der Software AG.

Teilen:
Zukunftstechnologien – was in den nächsten Jahren auf uns zukommt!

Zukunftstechnologien – was in den nächsten Jahren auf uns zukommt!

Die digitale Transformation verändert die Produktherstellung, den Vertrieb, die Auslieferung und den Service. Dieser Wandel zwingt Unternehmen, bei der Ausführung von Geschäftsprozessen, bei Managementmethoden und vor allem bei Informationssystemen neue Wege zu gehen. Die Software AG beschäftigt sich in einer Online-Konferenz zum Produkt-Release 2018 intensiv mit den Zukunftstechnologien, die unsere Welt verändern.

Digitalisierungsexperten der Software AG präsentieren im Oktober ihre Ideen für die Zukunft von IoT, Advanced Analytics und Machine Learning – und das in einer kompakten Online-Veranstaltung. Diese ist gleichzeitig der erste gemeinsame öffentliche Auftritt des neuen CEO, Sanjay Brahmawar, mit dem CTO, Dr. Wolfram Jost. Beide Sprecher werden in Vorträgen die Vision, die Strategie und die Produktplanung der Software AG für das kommende Jahr erläutern. Sie stellen ihre Perspektiven vor, geben Einblicke in die Technologien, die hinter der Digitalisierung stehen, und diskutieren, wie die neuen Produktfunktionen und Angebote der Software AG sich in das Anforderungsbild der digitalen Welt einfügen.

Darüber hinaus werden Interessenten in der Konferenz über die neuesten Produkt-Updates, innovative Funktionen und Verbesserungen, Produktfahrpläne und Produktstrategien der Software AG informiert.

Release-Neuigkeiten gibt es zu den Produkten

  • Adabas & Natural
  • Cumulocity IoT
  • Alfabet
  • Digital Business Platform
  • Apama
  • Terracotta
  • ARIS
  • webMethods

Live dabei sein

Die Veranstaltung findet an drei aufeinanderfolgenden Tagen zu unterschiedlichen Uhrzeiten statt. Teilnehmer können den Termin auswählen, der ihnen am besten passt: Für alle, die beispielsweise in Berlin oder London sitzen, ist der Termin am Dienstag, den 9. Oktober, geeignet. Für New York oder São Paulo ist Mittwoch, der 10. Oktober, der passende Termin. Interessenten, die in Singapur, Tokyo oder Sydney teilnehmen möchten, melden sich für den Termin am Donnerstag, den 11. Oktober, an.

Kurzweilig und kompakt informieren die Experten der Software AG über die neuesten Produktfunktionen, Angebote und Technologien, die alle eines gemeinsam haben: Sie machen unseren Arbeitsalltag leichter.

Weitere Informationen, das Programm der Veranstaltung sowie die Möglichkeit, sich kostenlos zur Konferenz anzumelden, finden Sie hier.

Teilen:
Versicherungen auf dem Weg in eine von Algorithmen dominierte Zukunft

Versicherungen auf dem Weg in eine von Algorithmen dominierte Zukunft

Keine Frage: Künstliche Intelligenz (KI) ist derzeit eines der populärsten Trendthemen. Mit unzähligen Beispielen wird verdeutlicht, welche bahnbrechenden Entwicklungen wir zukünftig zu erwarten haben. Da wird optimistisch über selbstfahrende Autos und Drohnen spekuliert oder es werden Roboter gezeigt, die bald Arbeiten im Warenlager und bei der Altenpflege übernehmen. Und es gibt beunruhigende Szenarien von autonomen Kampfrobotern und der totalen (Video-) Überwachung von Aktivitäten im öffentlichen Raum, die sofort Erinnerungen an den Roman „1984“ hervorrufen.

Auch in der Versicherungsbranche kommt KI bereits zum Einsatz. Die Auswirkungen sind weniger spektakulär, aber nicht minder weitreichend. Schon heute gibt es zahlreiche Beispiele, welche die Richtung vorgeben:

  • Im Vertrags- und Bestandsmanagement kann sich der Kunde an einen Chatbot wenden (z.B. Uniqa ServiceBot), um sich über die verfügbaren Versicherungsprodukte zu informieren. Dies geschieht nicht nur, um die Mitarbeiter der Versicherung zu entlasten, sondern auch, um eine spezielle Zielgruppe zu adressieren: Menschen, die sich nicht mehr unbedingt mit anderen Menschen unterhalten wollen, sondern den asynchronen Dialog mit einem Algorithmus vorziehen.
  • Im Schadenmanagement werden für proaktive Schadensregulierungen bzw. Sofortregulierungen Algorithmen eingesetzt, um mit weniger Arbeitsaufwand (also Kosten) schneller Entscheidungen treffen zu können. Das Ziel dabei ist es, den Kunden zeitnah auszahlen zu können und an die eigene Versicherung zu binden. Bei Massenregulierungen, etwa nach einem Hagelsturm, können Algorithmen die Bilder der Schäden oder die Scans der beschädigten Karosserien mittlerweile mindestens so gut beurteilen wie Menschen. In jedem Fall können sie es schneller und ermüdungsfrei – bis zu 24 Stunden pro Tag.
  • Der Einsatz vernetzter Geräte (Internet of Things) wird mehr und mehr für die Bereitstellung von verhaltensbasierten Policen genutzt. Bei Krankenversicherungen kann das die Kontrolle sein, ob sich ein Patient an den verordneten Therapieplan hält. Fitness-Tracker werden mehr und mehr eingesetzt, um Versicherte zu einem gesünderen Lebensstil zu animieren. In beiden Fällen sind Algorithmen notwendig, um aus der Fülle an Daten relevante Einzelereignisse oder unerwünschte Entwicklungen zu identifizieren und schnellstmöglich darauf zu reagieren.
  • Im Bereich der internen IT ist schon heute das Abwehren von Cyberangriffen ohne den Einsatz von Algorithmen kaum noch vorstellbar. Bei geschätzten 600 Millionen Angriffen täglich wird schnell deutlich, dass Menschen alleine hoffnungslos überfordert sind und deshalb der Einsatz von KI unbedingt notwendig ist.

Diese Beispiele stellen nur den Anfang einer Entwicklung dar, die sich in den nächsten Jahren noch beschleunigen wird. Die Konsequenzen davon sind vielfältig:

  • Versicherungen werden zukünftig proaktiver entscheiden und handeln als in der Vergangenheit. Der Blick in den Rückspiegel weicht dem Blick durch die Windschutzscheibe.
  • Versicherungen werden Produkte viel stärker als heute auf Basis individueller Risiken und Verhaltensweise entwickeln und mit Preisen belegen, die nicht mehr pauschal für ein Jahr gelten, sondern für kürzere Zeiträume und personenbezogene Anforderungen.
  • Die Bedürfnisse des Kunden bei der Interaktion mit der Versicherung (Customer Experience) werden noch stärker in den Mittelpunkt treten. Der Kunde wird individuell und ganzheitlich gesehen und bekommt in Echtzeit Rückmeldungen von seiner Versicherung.

Dafür müssen sich Versicherungen umfassend auf die Nutzung von Künstlicher Intelligenz vorbereiten. Dies beinhaltet:

  • Organisation: Versicherungen müssen noch mehr internes KI-Know-how entwickeln und bereitstellen. Dem „Data Scientist“ kommt dabei eine zentrale Rolle zu. Zudem müssen Versicherungen ihre Mitarbeiter von Routinetätigkeiten entlasten, sodass diese zusammen mit Data Scientists an der Umsetzung der KI arbeiten können. Durch diese Freiräume für neue Innovationen können durchaus erste, kleinere KI-Projekte entstehen.
  • IT: Versicherungen brauchen leistungsfähige IT-Plattformen, um KI erfolgreich einzusetzen. Das beste Modell eines Data Scientists nützt wenig, wenn es nicht in der Praxis eingesetzt werden kann. Das Modell muss mit echten Stammdaten, Daten des Kunden sowie externen Daten (beispielsweise Wetter-Daten) versorgt werden, um Entscheidungen unterstützen zu können. Es muss sozusagen „die letzte Meile“ überwinden.
  • Daten-Governance: Die IT-Plattform muss um eine entsprechende Daten-Governance ergänzt werden, die beschreibt, wo die Daten herkommen (aus dem eigenen Haus oder von extern) und wie und von wem die Daten verwendet werden. Schließlich muss sichergestellt sein, dass Datenqualität und Datenschutz gewährleistet sind. Nur wenn Daten klassifiziert sind, können sie für das Trainieren von Modellen (insbesondere Neuronale Netzwerke) eingesetzt werden.

Versicherungen müssen flexibel sein

Die Auswirkungen von KI auf Versicherungen werden massiv sein. Die aufgezeigten Anwendungsfälle sind nur der Anfang einer Entwicklung, die alle Sparten und alle Produkte der Versicherungen betreffen wird. Heute sind weder das genaue Zielbild noch der optimale Weg dorthin bekannt. Daher gilt es, sich so flexibel wie möglich aufzustellen. So verbaut sich die Versicherung nicht den Weg in eine von Algorithmen dominierte Zukunft.

Mehr über die Digitale Transformation von Versicherungen lesen Sie hier.

Teilen: