Datenschutzsouveränität in der digitalen Arbeitswelt

Datenschutzsouveränität in der digitalen Arbeitswelt

Im Forschungsprojekt “Inverse Transparenz” arbeitet die Software AG daran mit, die Datenverwendung für den Beschäftigten selbst transparent zu gestalten.

Im Arbeitsprozess fallen immer mehr Daten an, die unterschiedlich dokumentiert und sichtbar sind. Nicht immer wird für den Mitarbeiter transparent, was mit diesen Daten geschieht. Entwickelt sich hier nicht das Potenzial für eine umfassende Kontrolle und Überwachung von Beschäftigten und ihrer Arbeit? Genau damit befasst sich das vom Bundesministerium für Bildung und Forschung geförderte Forschungsprojekt Inverse Transparenz.

Mit „Vertrauenskultur statt Kontrollkultur“ setzt das Projekt ein neues Paradigma: die konsequente Teilnahme der Mitarbeiter an der Kontrolle der Verwendung ihrer Daten. Diese Offenheit zielt auf die Kontrolle der Beschäftigten (Employee Empowerment) über die eigenen Daten, stärkt das Vertrauensverhältnis zu seinem gesamten Umfeld und bietet eine regelkonforme Grundlage für den Datenumgang. Durch die Digitalisierung in der Produktentwicklung werden bei der Software AG z.B. alle Aufgaben in dem Problemverfolgungstool iTrac erfasst und priorisiert und die jeweiligen Arbeitsprozesse- und -schritte geplant. Die zentralen Systeme und ihre Daten stehen einer breiten Masse an Datennutzern, Teammitgliedern, Führungskräften, dem Management, und gegebenenfalls anderen interessierten Abteilungen für weitere Arbeitsschritte bzw. zur Informationsgewinnung zur Verfügung.

Gefahr des gläsernen Mitarbeiters

Die Daten führen zu einem digitalen Abbild der Arbeitsweise des Mitarbeiters. Technisch gesehen ermöglichen es die Systeme ohne großen Aufwand eine Verhaltens- und Leistungskontrolle über jeden Systemnutzer oder Mitarbeiter zu erstellen. Ganz im Stil des „Gläsernen Menschen“, könnte jeder Schritt verfolgt werden. Die Leistungen ließen sich mit denen anderer Kollegen vergleichen. Der Mitarbeiter könnte so in seinem Handeln, seiner Arbeitsweise und seiner Effektivität transparent werden, sich damit beobachtet und eingeschränkt fühlen und aufgrund dessen könnte sein Handeln und Verhalten beeinflusst werden.

Zusätzlich zu den klassischen Instrumentarien zum Schutz der Mitarbeiterdaten, wie sie z.B.: das Datenschutzgesetz, das Betriebsverfassungsgesetz, der Schutz durch den IuK-Ausschuss und den Betriebsrat als Kontrollorgan etc. darstellen, ist es das Ziel des Projekts „Inverse Transparenz“, die Datensouveränität der Beschäftigten zu stärken und ihnen aufzuzeigen, wie ihre Daten im Unternehmen genutzt werden, ohne einen Datenmissbrauch fürchten zu müssen.

Inverse Transparenz setzt auf drei zentrale Prinzipien:

  • „Watch the Watcher“: Die Verwendung von Daten für die Beschäftigten sichtbar machen
  • Beteiligung: Beschäftigte zu Akteuren eines beteiligungsorientierten Datenschutzes befähigen
  • Empowerment: Beschäftigte zur aktiven Nutzung von Daten befähigen, um eigenständig Arbeitsprozesse und Organisationsstrukturen zu verbessern

 

Expertengespräche in der Software AG

Um im Projekt ganz nah am Beschäftigten zu sein, wurden Mitarbeiter bei uns in der Software AG befragt. Die Kollegen aus allen drei wissenschaftlichen Einrichtungen des Projekts erhoben Daten an den Standorten Saarbrücken und Darmstadt. Das Sample bestand aus 22 Interviewten bei der Software AG – 14 in Darmstadt und acht in Saarbrücken. Die Interviews führten die Kollegen als Expertengespräche mit VertreterInnen des Managements aus diversen Leitungsfunktionen (Bereichs-, Abteilungs- und Teamleiter), aus HR, dem Betriebsrat sowie mit den Beschäftigten aus Entwicklung und Support durch. Dabei ging es um Fragen wie „Welche Bedeutung haben Daten im Arbeitsalltag?“ oder „Wie nutzen Beschäftigte selbst Daten aus dem Arbeitsprozess?“ und „Wie erleben sie die Transparenz?“.

Alle Interviews wurden bereits qualitativ ausgewertet. Erste Teilergebnisse der Forschungspartner zeigen, dass jüngere Befragte prinzipiell offener mit der Transparenz ihrer Daten umgehen, während etablierte Kollegen skeptischer gegenüber dem Vorhaben waren. Allerdings ist festzuhalten, dass auch sie, wie die jüngeren Kollegen, den Mehrwert der Transparenz erkannt haben und schätzen.

 

Kollegen für Praxislaboratorien gesucht

Das 36-monatige Projekt gliedert sich in drei Phasen: Analysephase, Pilotierungsphase und Transferphase. Am Ende jeder Phase steht ein Wissenschafts-Praxis-Dialog, bei dem sich Forschungspartner und die Software AG zusammenfinden, um die zentralen Befunde zu evaluieren und weiterzuentwickeln.

Im zweiten Quartal des nächsten Jahres soll dann in Praxislaboratorien der Prototyp in der Praxis angewendet werden. Es werden noch Kollegen aus der Entwicklung in Deutschland gesucht, die das Tool testen wollen. Wer Interesse hat, kann sich gerne bei den Projektleitern Christian Gengenbach oder Klotilda Muca melden.

 

Das Projekt Inverse Transparenz

In dem interdisziplinären Forschungsprojekt arbeiten drei wissenschaftliche Einrichtungen mit: das Institut für sozialwissenschaftliche Forschung München (ISF München), die Technische Universität München (TU München) und die Ludwig-Maximilians-Universität München (LMU München). Sie alle haben es sich zum Ziel gesetzt, Potenziale und Anwendungsszenarien inverser Transparenz in einer digitalen Arbeitswelt zu bestimmen. Die Software AG ist nicht nur ein relevanter Forschungspartner aus der Industrie, sondern hat die spezielle Rolle des Anwendungspartner in allen Phasen der Forschung übernommen. Konkret bedeutet dies, dass bei der Software AG die Pilotlösungen erprobt und Erfolgsfaktoren für eine breite Anwendbarkeit und Umsetzung des Kozepts entwickelt werden.

Teilen:
Umhüllt von Datenströmen und zartem Kakaoduft

Umhüllt von Datenströmen und zartem Kakaoduft

Im Rahmen des Forschungsprojekts EVAREST durfte ich die Schokoladenfabrik Lindt in Aachen besichtigen.

Tak, tak, tak, tak. Die Verpackungsmaschine in der Schokoladenfabrik rattert unermüdlich und  schafft 550 Tafeln in der Minute. So schnell kann ich gar nicht gucken. Zuerst wird die Tafel in hauchdünne Alufolie verpackt und dann mit dem bedruckten Karton umwickelt.  „Lindt Excellence 70% Cacao“ steht auf der Verpackung. Ab und zu fällt eine Tafel Schokolade in einen Korb. Fehler, aber der ist so unauffällig, dass ich erst mal nachfragen muss, warum die Tafel nicht weiter den Weg in den Karton findet. „Nicht korrekt gefaltet“, stillt der Werksarbeiter meine Neugierde. Bei Lindt herrschen hohe Qualitätsstandards. Bei der kleinsten Abweichung von der Norm wird aussortiert und gegebenenfalls nochmal eingeschmolzen.

Ich stehe mitten im einzigen deutschen Werk von Lindt, bewundere die hochmodernen Produktionsanlagen und nehme den zarten Kakaoduft wahr, der unaufdringlich in der Luft liegt. Manch einer beneidet mich um meine Mitwirkung im Forschungsprojekt EVAREST. Anlässlich des ersten Konsortialmeetings hat uns der Anwendungspartner Lindt zur Werksbesichtigung eingeladen. Der Besuch der Produktionshallen soll den Projektpartnern dabei helfen, bei aller „Datentheorie“ ein Gespür für den Anwendungsfall zu entwickeln.

Die Lindt & Sprüngli AG ist ein international tätiger Schweizer Schokoladenhersteller mit Sitz in Kilchberg (ZH) in der Schweiz. Die Gründung geht auf das Jahr 1898 zurück. 14.570 Mitarbeiter zählte die Unternehmensgruppe im Jahr 2018, die weltweit einen Umsatz von 4 313,2 Mrd. Schweizer Franken erwirtschaftet. Neben einer Vielzahl verschiedenster Tafelschokoladen stellt sie auch Pralinen her.  Dazu kommen saisonale Produkte wie Weihnachtsmänner oder Osterartikel.  Insgesamt wurden 2018 2.523 unterschiedliche Produkte produziert. Lindt ist in Deutschland mit einem sehr breit aufgestellten Schokoladensortiment auf dem Markt. Deutschland ist das Heim des Goldhasen und der gesamten Hohlfigurenproduktion für die Lindt & Sprüngli Gruppe.

Worum geht es bei dem vom BMWi geförderten Projekt EVAREST? In der Lebensmittelproduktion fallen massenhaft Daten an. Auf der Kakaoplantage, beim Transport und in den Fabrikhallen zählen, messen und sammeln Maschinen und Anlagen alle möglichen Werte. Von der Qualität der Rohware, über die saisonale Verfügbarkeit der Zutaten bis zur aktuellen Marktnachfrage. Wie viele Kakaobohnen ernten Bauern wann und wo? Wie steht es um die Qualität der Bohnen? Und welche Sorten ergaben besonders gute Schokolade. Analysen liefern eine Fülle von Informationen, Codes aus Zahlen und Buchstaben geben Auskunft über Rohstoff, Herkunft, Zuliefererketten, Qualitätskontrolle und Nachfrage. Diese Daten nutzen bisher nur der Bauer, der Lieferant und der Fabrikant vor Ort: jeder allein für sich, um jeweils seinen kleinen Teil der Kette im Auge zu behalten.

Gruppenfoto

Branche profitiert von Rohstoffdaten

Die Lebensmittelindustrie  will aus Datenströmen eine zusätzliche Einnahmequelle für Erzeuger und Hersteller schaffen. Aber auch für andere sind solche Daten aufschlussreich, erst recht, wenn die Informationen verknüpft werden. Weiß z. B. der Hersteller edler Schokolade früh über Qualität und Umfang der Kakaoernte Bescheid, kann er seinen Einkauf besser planen – etwa, wenn Bohnen bestimmter Güter absehbar knapp werden. Auch Finanzfachleute würden profitieren und könnten früh und fundierter Preisentwicklungen für Rohstoffe voraussagen. Solches Wissen ist bare Münze wert.

Das Projekt EVAREST hat im Januar 2019 begonnen. Ziel ist die Entwicklung und Verwertung von Datenprodukten als Wirtschaftsgut im Ökosystem der Lebensmittelproduktion. Als Basis soll eine offene technische Datenplattform geschaffen werden, die über Unternehmensgrenzen hinausgeht. Ferner werden  ökonomische und rechtliche Nutzungskonzepte entwickelt. „Die globale Serviceplattform wird auf Software der Software AG aufsetzen. Sie wird Produkte, Anlagen, Systeme und Maschinen verbinden und damit die Analyse und Verwertung von IoT-Daten in einem globalen Ökosystem ermöglichen“, sagt  Andre Litochevski aus dem Bereich Research, der seitens der Software AG für das Projekt verantwortlich ist. Zum Projektkonsortium gehören neben der Software AG und Lindt das DFKI als Konsortialführer, die Agrarmarkt Informations-Gesellschaft mbH (AMI), das Forschungsinstitut für Rationalisierung e.V. (FIR) an der RWTH Aachen und die Universität des Saarlandes.

Mit Kittel und Haube

Während der Werksbesichtigung lernen wir, wie sensibel die Schokoladenproduktion ist:  So spielt zum Beispiel die Temperatur in den Hallen eine große Rolle. Weicht die Temperatur der Schokoladenmasse nur um einen halben Grad ab – und je nach Produktionsstufe muss sie mal kühler oder mal wärmer sein, – verliert die Schokolade entweder ihren Glanz oder ist nicht mehr aus den Gießformen herauszubekommen.

Hygiene ist oberstes Gebot in der Schokoladenfabrik. Ohne Kittel und weiße Haube, für die Männer sogar Bartschutz, geht in den Produktionshallen gar nichts. Immer wieder passieren wir auf dem Weg zum Besprechungsraum oder in die Kantine Hygienestationen, wo wir unsere Hände waschen und desinfizieren und nach neuen Hauben greifen.

Auch der Arbeitssicherheit wird in der Produktion oberste Priorität eingeräumt. Bereits vor Jahren wurde an sämtlichen Produktionsstandorten ein entsprechendes „Health- & Safety“-Programm implementiert. Die Einhaltung der Ziele wird kontinuierlich überprüft. Unsere Besuchergruppe wird z. B. sehr konsequent gebeten, den Handlauf an der Treppe zu benutzen. Gebotsschilder weisen zusätzlich darauf hin. Es könnte sich ja Kakaobutter auf die Schuhsohle verirrt haben und die Treppe zur gefährlichen Rutschbahn machen.

Im Rahmen des Konsortialtreffens in Aachen wurden die Ergebnisse einer von den Partnern FIR und AMI konzipierten Umfrage vorgestellt. Diese wird als Input zum Status quo der Digitalisierung der industriellen Lebensmittelproduktion genutzt. Außerdem wurden während eines Workshops verschiedene Werte und Anforderungen für zukünftige Stakeholder des Ökosystems EVAREST entwickelt. Neben der Analyse von bestehenden und der Konzeption von zukünftigen Datenströmen in der Produktion wurden bereits Möglichkeiten zur Repräsentation von Datenprodukten sowie die Einsatzmöglichkeiten von Smart Contracts zur Absicherung von Datenprodukten im Ökosystem untersucht.

Und übrigens: Wer glaubt, neidisch auf meinen „Schokoladentag“ sein müssen,
den muss ich enttäuschen: Ich esse keine Schokolade

www.evarest.de

Teilen:
Aufbau eines Enterprise-Management-Systems

Aufbau eines Enterprise-Management-Systems

Wie behalten Sie Ihr sich ständig wandelndes Unternehmen im Griff? Unser Webinar „Eine Strategie, die alle erreicht: Aufbau eines Enterprise-Management-Systems mit ARIS“ zeigt, wie Ihnen das gelingt.

Das Webinar behandelt folgende Fragen:

  • Wie unterstützt ARIS Sie bei der Transformation Ihres Unternehmens? Wie gehen Sie persönlich mit der Veränderung Ihres Unternehmens um? In unserem exklusiven und interaktiven Webinar erfahren Sie, wie Sie Ihr Unternehmen während des Transformationsprozesses sicher steuern und die gesamte Organisation an den Transformationsprogrammen ausrichten.
  • Wie erhalten Sie bessere Einblicke in Ihr operatives Geschäft, und wie treffen Sie zukunftssichere Entscheidungen? Ein Enterprise-Management-System auf der Basis von ARIS schafft die Transparenz, die Sie brauchen, um Entscheidungen zu treffen, die Ihr Unternehmen voranbringen.

Das Webinar führt Sie durch die Schritte, die ausschlaggebend sind für die Steuerung und den Transformationsprozess Ihres Unternehmens.

  • Transformation: Ziele verwirklichen
  • Optimierung: Operational Excellence erreichen
  • Steuerung: Geschäftsbetrieb sichern

Profitieren Sie von Best Practices und Anwendungsfällen aus der Praxis. Unsere internationalen Transformationsexperten informieren Sie über die Erkenntnisse anderer Unternehmen, die mit ARIS ein Enterprise-Management-System aufgebaut und ihre Strategie erfolgreich umgesetzt haben.

Sie arbeiten bei einer Bank oder einem Industrieunternehmen? Sie beschäftigen sich mit Qualitätsmanagement oder mit Risikomanagement und Compliance? Oder sind Sie zuständig für das Center of Excellence Ihres Unternehmens und suchen Verbesserungsmöglichkeiten?

Was auch immer Ihre Rolle ist, in welcher Branche Sie auch immer Sie tätig sind – ein Enterprise-Management-System auf der Basis von ARIS ist der richtige Weg, und dieses Webinar ist der Beginn dieses Weges.

Entdecken Sie mit uns neue Perspektiven und melden Sie sich jetzt an!

Teilen:
API-Management macht Daten verwertbar

API-Management macht Daten verwertbar

In meinen Gesprächen mit Führungskräften internationaler Unternehmen kommt ein Thema fast unweigerlich zur Sprache: wie die Firmen ihre eigene digitale Transformation vollziehen und die dadurch endlich verfügbar werdenden Datenmengen verwerten können. Eine Frage, die Unternehmen fast jeder Branche und Größe beschäftigt, ist beispielsweise was der beste Weg ist, um mithilfe des Internets der Dinge die Daten nutzbar zu machen. Oder wie diese Datenfülle eingesetzt werden kann, um mit den Kunden noch besser zu interagieren, nutzerzentrierte Produkte und Services zu entwickeln und neue intelligente Ökosysteme zu schaffen. Die Antwort: Den Möglichkeiten sind kaum Grenzen gesetzt! Aber alles muss damit beginnen, sämtliche vorhandene Datenquellen zentral zu integrieren und mithilfe von Künstlicher Intelligenz (KI) zu interpretieren. Ohne Integration und Auswertung sind all diese Daten wertlos.

Wenn es um die Technik hinter der Integration geht, sprechen Unternehmer oft das Thema APIs an: „Brauche ich nicht auch APIs, wenn ich alle meine Datenquellen verknüpfen will?“ – dieses Missverständnis begegnet mir immer wieder. Ja, APIs können helfen, Transaktionssysteme, Kundensysteme und andere Datenquellen an ganz unterschiedlichen Standorten miteinander zu verbinden.
Zwei Dinge sind hierbei allerdings von besonderer Bedeutung. Erstens: Bei APIs geht es um mehr als nur um Integration. Sie können beispielsweise der Schlüssel zur Monetarisierung und gemeinsamen Nutzung von Systemen sein, die bereits im Unternehmen vorhanden sind. Zweitens: Für APIs (ebenso wie für Produkte) gilt, die Entwicklung ist nur der erste Schritt in einem Lebenszyklus. Ist der API-Lebenszyklus gut geführt, werden Daten zum Katalysator für Innovation und Wachstum. Ist er schlecht geführt, kann die Entwicklung entweder reine Zeit- und damit Geldverschwendung oder im schlimmsten Falle ein gigantisches Sicherheitsrisiko sein.

APIs sind also wichtig, um das Transformationspotenzial der eigenen Daten auszuschöpfen. Voraussetzung dafür ist das richtige Werkzeug, um den API-Lebenszyklus vernünftig zu steuern.

Der Markt für API-Management-Tools hat in den vergangenen Jahren einen grundlegenden Wandel erfahren: Sechs der führenden Anbieter wurden von Konzernen  übernommen. Die meisten dieser aufgekauften Firmen befinden sich derzeit auf einem absteigenden Ast.

Was bedeutet das für Unternehmen? Eine Firma muss den gesamten Lebenszyklus seiner APIs steuern, um den größtmöglichen Nutzen aus den eigenen Daten zu ziehen, Sicherheit zu garantieren und seine Unternehmenswerte zu monetarisieren.

Es gibt keinen Zaubertrick, mit dem Sie Ihre Organisation zum digitalen Unternehmen transformieren. APIs können Ihrem Unternehmen jedoch das Tor in eine Welt voll neuer Chancen öffnen. Was Sie dafür brauchen, ist ein umfassendes API-Management, das sicherstellt, dass die Innovationen, die durch APIs möglich werden, gewinnbringend genutzt werden.

Am besten wenden Sie sich hierzu an ein Unternehmen, das laut Gartner und Forrester zu den Marktführern gehört. Ein stabiles, unabhängiges und profitables Unternehmen, das seit 50 Jahren seinen Kunden ein zuverlässiger Partner ist.
Bei der Software AG geht es nicht um Zauberei, es geht um Innovation.

 

Teilen:
IoT-Starthilfe für die Industrie

IoT-Starthilfe für die Industrie

Die Software AG und Dell EMC haben eine IoT-Appliance entwickelt, die exakt auf vernetzte Produktionsumgebungen zugeschnitten ist. Hard- und Software sowie Services wurden nach dem „Out-of-the-Box“-Prinzip vorkonfiguriert. So ist die Technik schnell startklar, um riesige Datenmengen bereits am Netzwerkrand zu verarbeiten und nur die relevanten Informationen in die Cloud zu transferieren. Cumulocity IoT Edge bildet das Herzstück der Software-as-a-Service-Appliance, die über Subscription bezogen werden kann. Auch das hat entscheidende Vorteile.

Wie sich Produktionsprozesse verbessern lassen, wenn riesige Datenmengen effizient und sicher mit einer IoT-Appliance verarbeitet werden, verdeutlicht ein Blick in die Hallen eines Automobilherstellers: Dort sind die Karosserien exakt in Positionen gebracht. Pro Workstation sprühen sechs Lackierroboter, und ihre Bahnen werden in das CAD-Modell am Monitor projiziert. Gleichzeitig analysieren Algorithmen verschiedene Parameter wie Lackfluss und Druckluft. Sobald sie Anomalien entdecken, die einen Qualitätsabfall zur Folge haben könnten, stoppt der Anlagenleiter die Lackierroboter sofort, bevor sie weitere Karosserien besprühen. Die IoT-Appliance spart dem Automobilhersteller mühevolle Zusatzrunden und damit Zeit und Geld. Das Out-of-the-Box-Entwicklungskonzept von der Software AG und Dell EMC geht voll auf, da es den Bedarf nach einem schnellen, einfachen und sicheren Umsetzen von IoT-Anwendungen bedient.

Was in der hochperformanten Software-Appliance steckt

Die Basis der IoT-Plug & Play-Lösung bildet die Software-Plattform Cumulocity IoT, die der Marktforscher MachNation als führend im Application Enablement eingestuft hat. Konkret wird Cumulocity IoT Edge der Software AG auf Dell-Server aufgespielt, die mit Intel-Prozessoren arbeiten. Unternehmen erhalten so eine hochperformante und abgestimmte Software-Appliance, die am Netzwerkrand platziert und über Dell-Edge-Gateways mit der Sensorik verbunden wird. Die integrierte Analyse-Engine sorgt für die Fähigkeit, in Echtzeit die Produktionsqualität zu überwachen. Falls sich bestimmte Parameter ändern sollten, können Anwenderfirmen sofort über das Dashboard gegensteuern, ohne Qualitätseinbußen hinnehmen zu müssen. Alle nötigen Services, zugeschnitten auf das einfache Entwickeln von IoT-Lösungen für die Industrie, sind vorinstalliert und vorkonfiguriert – und schnell per Plug & Play gestartet. Dazu bietet die Bibliothek vorgefertigte analytische Modelle. Per Drag & Drop lassen sich Business-Apps migrieren, ähnlich einfach funktioniert das Vernetzen von Endgeräten.

Prinzipiell ist der IoT-Software-Bundle in Kombination mit dem Dell Server geeignet, jedes Fertigungsszenario zu überwachen und zu steuern: von Condition Monitoring in Echtzeit über vorausschauende Wartung oder Produktionsprozessoptimierung bis hin zu Field-Service-Management. Die Stärke der IoT-in-a-Box-Lösung liegt im Edge Computing, was bedeutet, dass sie die Datenmassen nicht in die Cloud überträgt, sondern direkt am Entstehungsort verarbeitet und selektiert. Unternehmen können die Cumulocity IoT Edge im Subscription-Modell beziehen, das auch den Support rund um die Uhr beinhaltet. Das Service-Team spielt die Patches und Backups ein und übernimmt alle anfallenden Migrationen. Alle drei Jahre wird die komplette Appliance ersetzt. So bleibt die IT-Infrastruktur stets aktuell und deckt lückenlos lange Maschinenlaufzeiten ab. Zudem verschafft die geringe Mindestlaufzeit des IT-Stacks Anwendern den nötigen Spielraum, flexibel ihre Geschäftsmodelle an den Wettbewerb anzupassen.

Bereit für On- und Offline-Modus

Cumulocity IoT Edge kann im Offline-Modus betrieben werden, was für einen hohen Sicherheitslevel sorgt, da Daten nicht nach außen abfließen können. In dem Fall darf nur konfigurieren und auf Daten zugreifen, wer die Berechtigung dazu besitzt. Diese hohen Sicherheitsanforderung für eine autonom gesteuerte Anlage haben auch Betreiber kritischer Infrastrukturen zu erfüllen. Im Normalbetrieb analysiert und evaluiert die Edge Plattform Daten, wobei sie nur relevante Informationen in die Cloud weiterleitet. Das spart unnötigen Datenverkehr, Speicherplatz in der Cloud sowie die Kosten für eine hohe Anzahl an registrierten Devices. Welche Cloud ein Unternehmen nutzt, ist dabei unerheblich, da die Appliance voll kompatibel mit allen gängigen Cloud-Anbietern ist und schnell sowie sicher verbindet.

Die IoT-Appliance bietet nicht nur den Vorteil, ein IoT-Projekt schnell zu starten und anzubinden, sondern mit ihr lässt sich eine verteilte Plattformarchitektur aufbauen: Die Durchgängigkeit von APIs zwischen Cloud und Edge sorgt für die reibungslose Interaktion zwischen Plattform, Anwendungen und Geräten. Sowohl die Cloud- als auch die Edge-Plattform verfügen über dieselbe Analyse-Engine. Datenmodelle können so von einem Standort über die Cloud auf andere Produktionsstätten ausgerollt werden. Auch zentral entwickelte Modelle lassen sich über die Cloud für alle Werke bereitstellen. Wer Prozesse in mehreren Hallen oder Produktionsstandorten vielfach replizieren möchte, profitiert von dieser einfachen Skalierbarkeit.

Der IoT-Schnellstart zum Anschauen

Nach der SPS IPC Drives in Nürnberg 2018 hatte Cumulocity IoT Edge auf der Hannover Messe 2019 den nächsten großen Live-Auftritt. Unternehmen aus Industrie und Fertigung konnten sich an den Ständen von Dell EMC und der Software AG informieren, wie sie den Schritt zu komplexen IIoT-Lösungen meistern – und zwar zügig und auf die einfache Art. Das es sich hierbei nicht nur um ein Marketingversprechen handelt, bewiesen die Partner auch, als sie im Februar ein gemeinsames Webinar durchführten. Das beantwortete alle Fragen zum Schnellstart ins IoT: vom Zeit- und Budget-Rahmen bis hin zu den Voraussetzungen und notwendigen Schritten zum Skalieren nach einem initialen Kleinprojekt.

Sie haben das kostenlose Webinar verpasst? Sehen Sie sich hier die Aufzeichnung an.

Live erleben Sie IoT out the Box auf einem der 6 Stopps unserer Innovation Tour 2019. Jetzt anmelden!

 

Teilen:
IoT-Trends 2019 für die Banken- und Versicherungsbranche

IoT-Trends 2019 für die Banken- und Versicherungsbranche

Vom offenen Bankwesen über die nutzungsorientierte Finanzierung bis hin zur Beschleunigung des Internet of Things (IoT). Versicherungen und Finanzdienstleister stehen an der Schwelle zu einem neuen digitalen Zeitalter. Hier kommen die fünf Top-Trends für dieses Jahr:

 

1. Das richtige API-Management

Open Banking (auch API Banking) gewinnt im Zuge der kundenorientierten, digitalen Transformation zunehmend an Bedeutung. Dabei werden APIs nicht nur als reine technische Schnittstelle verstanden, die den Kunden zur Verfügung gestellt werden. Das gesamte Lebenszyklusmanagement zur Skalierung, Kontrolle, Steigerung und Wiederverwendung von APIs spielt eine tragende Rolle. Unternehmen müssen sich Gedanken machen, welche APIs sie zur Verfügung stellen wollen und wo sie Synergien nutzen können. Sowohl intern als auch mit anderen Marktteilnehmern, die in Zeiten der Plattformökonomie zu Kooperationspartnern werden können. Einige Banken haben bereits ihre Strategien für Open Banking definiert und haben ein für sie passendes Modell festgelegt. Andere werden feststellen, dass sie zu spät dran sind, da die attraktivsten Partner bereits Geschäftsbeziehungen eingegangen sind.

 

2. Einfachheit siegt

In den letzten Jahren haben Finanzdienstleister viel Geld für mobile und kundenorientierte Technologien ausgegeben. Sie werden allerdings feststellen, dass sie die Grenzen dessen, was sie ihren Kunden in kontextbezogener Erfahrung liefern können, wenn sie ihre Prozesse nicht vollständig und intelligent automatisieren und dadurch vereinfachen, erreichen werden. Dabei geht es nicht mehr um das Gerät selbst, sondern auch den Kontext, in dem das Gerät verwendet wird. Insbesondere bei einem möglichen Konjunkturrückgang sind Business-Teams gefordert, schnell einen ROI für Technologieprojekte nachzuweisen. Ein pragmatischer und zielgerichteter Einsatz von maschinellem Lernen und robotergesteuerte Prozessautomatisierung wird dazu beitragen, manuelle Fehler und teure Arbeitskräfte, die für Nebentätigkeiten eingesetzt werden, zu reduzieren. Es gilt, Prozesse stark zu verschlanken, um besser auf die zukünftigen Bedürfnisse von Kunden reagieren zu können.

 

3. Die jungen Wilden werden erwachsen

Herausforderer, die bisher noch in die Kategorie Start-Ups und FinTechs fielen, werden bedeutende Marktanteile hinzugewinnen und zu etablierten Banken aufholen. Ein gutes Beispiel hierfür ist die Firma Wirecard, die in diesem Jahr in den DAX aufgestiegen ist und so die Commerzbank verdrängt hat. Eine Herausforderung, der sich sowohl etablierte Banken als auch junge Marktteilnehmer stellen müssen, ist ihre wachsende eigene IT-Infrastruktur. Wenn es zusätzlich zu Kooperationen kommt – zwischen FinTech und Bank oder InsurTech und Versicherung –, müssen sie sich Gedanken darüber machen, wie sie diese erhöhte Komplexität sinnvoll managen und kontrollieren können. Wenn beispielsweise eine Bank ein FinTech übernimmt und in das eigene Haus integriert, müssen Systeme abgelöst oder zeitweise zwei Systeme parallel betrieben werden. Das ist Aufgabe eines IT-Portfolio-Managements.

 

4.  Steigende Relevanz des IoT

Für Versicherungen gewinnt das Internet of Things zunehmend an Relevanz. Gerade für den Industrieversicherungsbereich ist es interessant, IoT-Daten zu erheben und zu verarbeiten. Mithilfe von Sensoren und dem Internet of Things können Flotten, Industrieanlagen, Fabriken oder auch Gebäude überwacht werden. Wie auch im Privatkundengeschäft wird das IoT zu einer Wertschöpfung in der Risiko- und Betrugsprävention und zu verbessertem Schadenmanagement und Kundenbindung beitragen. Innovative Versicherungsunternehmen werden von dieser Wertschöpfung profitieren, indem sie Ökosysteme auf der Basis von IoT-Daten aufbauen und sich intern auf die Verkürzung von Geschäftszyklen konzentrieren.

 

5. Die Qualität zählt

Mit dem Anstieg von ergebnis- und nutzungsbezogenen Kostenmodellen wird sich auch die Finanzierung von Sachanlagen wie Maschinen drastisch verändern. Darlehen werden nicht mehr auf Basis von Zeit, sondern auf Basis des Einkommensstroms, der durch einen Teil der Industrieanlage anhand eines Sensors gemessen und der Bank mitgeteilt wird, vergeben. Je nachdem wie viel der Kunde produziert und verkauft, ist die Tilgungsrate entsprechend hoch. Da Banken grundsätzlich an Ergebnissen interessiert sind, liefern die Sensoren auch einen nützlichen Beitrag für das Risikomanagement. Wie viele Geräte werden benötigt, um denselben Ertrag zu generieren wie ein einzelnes, hochwertiges und gut funktionierendes Gerät? Die Produktqualität wird so zur wichtigsten Komponente des Risikomanagements.

Grundsätzlich gilt es, Prozesse so flexibel und einfach wie möglich zu gestalten, um damit die Bedürfnisse des Kunden befriedigen zu können. Der Kunde steht nach wie vor im Mittelpunkt. Die Technologie ist dabei nur Mittel zum Zweck.

Weitere Informationen zur digitalen Transformation in Banken und Versicherungen erhalten Sie hier.

Teilen: