Ungeheure Datenmengen? – Mit Streaming Analytics behalten Sie den Überblick

Ungeheure Datenmengen? – Mit Streaming Analytics behalten Sie den Überblick

Egal ob Unternehmen in ihren verschiedenen Fachbereichen unterschiedliche Transaktionssysteme nutzen oder sie sich mehr Transparenz in ihrer Lieferkette wünschen – leistungsfähige Streaming-Analytics-Lösungen ermöglichen es, wertvolle Erkenntnisse aus den eigenen Daten zu ziehen und unterstützen so bei der Umsetzung ihrer Digitalisierungsziele. Streaming Analytics ermöglicht es Unternehmen in Echtzeit Einblicke aus großen und sich schnell verändernden Datenmengen zu gewinnen und erlaubt die Vorhersage, was als nächstes passieren wird. Risiken und Chancen werden sofort erkannt, sodass die Firma optimal auf diese reagieren kann.

Nicht nur für IT-Profis
Mittlerweile ist selbst komplexe Software nicht mehr nur Sache von IT-Fachleuten, sondern bindet auch Mitarbeiter ohne Programmierkenntnisse ein. Durch übersichtliche Bedienungsoberflächen können beispielsweise Business Analysten die Tools von heute bedienen. Streaming Analytics steigert also die Effizienz von Prozessen – vor allem wenn die Lösung ohne Programmierung auf Seiten des Kunden auskommt. So erstellen auch Nicht-IT-Fachkräfte mithilfe einer übersichtlichen Benutzeroberfläche im leistungsfähigen Tool präzise Analyseszenarien. Durch grafisch dargestellte APIs gelingt eine schnelle Anwendungsentwicklung auch ohne Programmierkenntnisse. Der Einsatz von Lösungsbibliotheken zur Beschleunigung der Anwendungsbereitstellung ist immer verbreiteter und fördert die Entwicklung von individuellen Ansätzen für Unternehmen, um nach Bedarf schnell selbst die passenden Anwendungen entwickeln zu können.

Einsatz im echten Leben
Doch wie kommt Streaming Analytics nun tatsächlich zur Anwendung? Der Einzelhandel beispielsweise nutzt Streaming Analytics, um Echtzeitdaten zum Kaufverhalten des Kunden zu eruieren oder die Customer Journey zu optimieren. Letztendlich wird so das Kauferlebnis der Kunden für Marketer nachvollziehbar. In der Finanzbranche unterstützt Streaming Analytics dabei, den schnelllebigen Devisenmärkten immer einen Schritt voraus zu sein. Vermeintliche Betrugsfälle können außerdem leichter und effizienter aufgespürt werden. Vertriebskanäle eines Unternehmens nutzen Streaming Analytics, um eine größere Transparenz zu ermöglichen und bei der Produktsuche zu unterstützen.

Mit Streaming Analytics das ganze Potential der eigenen Daten ausschöpfen
Dank einer Streaming-Analytics-Technologie sind Unternehmen in der Lage, ihre Daten zu jeder Zeit im Blick zu halten und wie sie, sie optimieren können. Daher sind vor allem auch Echtzeit-Analysen entscheidend für Unternehmen, sodass sie aus der eigenen Datensammlung einen Mehrwert generieren und so einen maximalen Wettbewerbsvorteil erzielen.

Teilen:
„Was das Internet für Informationen ist, ist die Blockchain für Transaktionen“

„Was das Internet für Informationen ist, ist die Blockchain für Transaktionen“

Interview mit Andrea Bürck, Head of Sales bei TYMLEZ

Frau Bürck, Sie arbeiten beim deutsch-niederländischen Blockchain-Start-up TYMLEZ und waren auch bei der diesjährigen InnovationTour dabei. Können Sie uns erklären, was TYMLEZ macht und wie Sie mit der Software AG zusammenarbeiten?

A. Bürck: Die TYMLEZ Solution Plattform nutzt Blockchain, eine der wichtigsten Digitalisierungstechnologien, um sie für Unternehmen nutzbar zu machen. Einzigartig bei TYMLEZ sind vor allem die stark vorkonfigurierte Plattform, mit der ein Kunde mühelos mit seinem ersten Projekt starten kann. Außerdem bietet TYMLEZ eine hohe Integration mit verschiedenen SAP-Services wie zum Beispiel der neuen Hochgeschwindigkeitsdatenbank SAP HANA.
Unsere Partnerschaft mit der Software AG beruht darauf, dass die beiden Trendthemen IoT und Blockchain immer mehr zusammenwachsen. Ein Beispiel ist Track and Trace: Bringt man an Produkte oder Güter Sensoren an, senden diese Daten, die mithilfe einer IoT-Plattform wie Cumulocity ausgewertet werden können. Diese Daten können mit TYMLEZ in der Blockchain abgelegt, dort sicher vor Manipulation gespeichert und von dort weiterverarbeitet werden. So kann der Hersteller der Güter in unserem Beispiel sicher sein, dass diese in den verschiedenen Bearbeitungsschritten nicht manipuliert worden sind, was sehr wichtig für die Qualitätssicherung ist.

Auf der InnovationTour haben Sie den Besuchern der Ausstellung mehrere Showcases mit TYMLEZ gezeigt, die die für viele noch immer abstrakte Blockchain-Technologie veranschaulichten. Können Sie ein Beispiel nennen?

A. Bürck: Gern! Einer unserer Showcases stammt aus dem Healthcare-Bereich: Das niederländische Unternehmen Nico.lab entwickelte auf Basis von TYMLEZ eine KI- und Blockchain-basierte Lösung für Krankenhäuser zur besonders schnellen Behandlung von Schlaganfallpatienten bei gleichzeitig höchster Datensicherheit. Die Kombination von KI und Blockchain unterstützt die Ärzte bei der Auswertung von Hirn-Scans und trägt dazu bei, das Risiko einer Verschlechterung der Folgen für die Patienten deutlich zu verringern.
Zeit und Sicherheit sind bei Schlaganfällen ein sehr bedeutender Faktor. Aus diesem Grund ist die Blockchain für medizinische Einsatzgebiete geradezu prädestiniert.

Welche Entwicklungsschritte sehen Sie in naher Zukunft für Ihre eigene Branche?

A. Bürck: Blockchain wird in Zukunft eine ebenso große Rolle spielen wie das Internet. Denn was das Internet für Informationen ist, ist die Blockchain für Transaktionen.
Allein, dass die Bundesregierung einen Blockchain-Hub ins Leben rief spricht für sich: Der Einsatz der Blockchain ist im Grunde überall in solchen Bereichen denkbar, in denen es auf Transparenz für die Beteiligten einer Lieferkette oder eines Workflows ankommt, auf hohe Geschwindigkeit und größte Sicherheit in der Datenverarbeitung. Ich bin sicher, wir werden in naher Zukunft Blockchain in Bereichen wie der Verwaltung, in der medizinischen Versorgung oder auch beim Thema Digital Passport sehen. Da unterschiedliche Blockchains sich zunehmend miteinander verweben, wird diese Technologie ein ähnliches Netzwerk bilden wie das Internet.

Vielen Dank, Frau Bürck, für Ihre Zeit und die Hintergründe zur Zukunftstechnologie Blockchain!

Teilen:
Datenschutzsouveränität in der digitalen Arbeitswelt

Datenschutzsouveränität in der digitalen Arbeitswelt

Im Forschungsprojekt “Inverse Transparenz” arbeitet die Software AG daran mit, die Datenverwendung für den Beschäftigten selbst transparent zu gestalten.

Im Arbeitsprozess fallen immer mehr Daten an, die unterschiedlich dokumentiert und sichtbar sind. Nicht immer wird für den Mitarbeiter transparent, was mit diesen Daten geschieht. Entwickelt sich hier nicht das Potenzial für eine umfassende Kontrolle und Überwachung von Beschäftigten und ihrer Arbeit? Genau damit befasst sich das vom Bundesministerium für Bildung und Forschung geförderte Forschungsprojekt Inverse Transparenz.

Mit „Vertrauenskultur statt Kontrollkultur“ setzt das Projekt ein neues Paradigma: die konsequente Teilnahme der Mitarbeiter an der Kontrolle der Verwendung ihrer Daten. Diese Offenheit zielt auf die Kontrolle der Beschäftigten (Employee Empowerment) über die eigenen Daten, stärkt das Vertrauensverhältnis zu seinem gesamten Umfeld und bietet eine regelkonforme Grundlage für den Datenumgang. Durch die Digitalisierung in der Produktentwicklung werden bei der Software AG z.B. alle Aufgaben in dem Problemverfolgungstool iTrac erfasst und priorisiert und die jeweiligen Arbeitsprozesse- und -schritte geplant. Die zentralen Systeme und ihre Daten stehen einer breiten Masse an Datennutzern, Teammitgliedern, Führungskräften, dem Management, und gegebenenfalls anderen interessierten Abteilungen für weitere Arbeitsschritte bzw. zur Informationsgewinnung zur Verfügung.

Gefahr des gläsernen Mitarbeiters

Die Daten führen zu einem digitalen Abbild der Arbeitsweise des Mitarbeiters. Technisch gesehen ermöglichen es die Systeme ohne großen Aufwand eine Verhaltens- und Leistungskontrolle über jeden Systemnutzer oder Mitarbeiter zu erstellen. Ganz im Stil des „Gläsernen Menschen“, könnte jeder Schritt verfolgt werden. Die Leistungen ließen sich mit denen anderer Kollegen vergleichen. Der Mitarbeiter könnte so in seinem Handeln, seiner Arbeitsweise und seiner Effektivität transparent werden, sich damit beobachtet und eingeschränkt fühlen und aufgrund dessen könnte sein Handeln und Verhalten beeinflusst werden.

Zusätzlich zu den klassischen Instrumentarien zum Schutz der Mitarbeiterdaten, wie sie z.B.: das Datenschutzgesetz, das Betriebsverfassungsgesetz, der Schutz durch den IuK-Ausschuss und den Betriebsrat als Kontrollorgan etc. darstellen, ist es das Ziel des Projekts „Inverse Transparenz“, die Datensouveränität der Beschäftigten zu stärken und ihnen aufzuzeigen, wie ihre Daten im Unternehmen genutzt werden, ohne einen Datenmissbrauch fürchten zu müssen.

Inverse Transparenz setzt auf drei zentrale Prinzipien:

  • „Watch the Watcher“: Die Verwendung von Daten für die Beschäftigten sichtbar machen
  • Beteiligung: Beschäftigte zu Akteuren eines beteiligungsorientierten Datenschutzes befähigen
  • Empowerment: Beschäftigte zur aktiven Nutzung von Daten befähigen, um eigenständig Arbeitsprozesse und Organisationsstrukturen zu verbessern

 

Expertengespräche in der Software AG

Um im Projekt ganz nah am Beschäftigten zu sein, wurden Mitarbeiter bei uns in der Software AG befragt. Die Kollegen aus allen drei wissenschaftlichen Einrichtungen des Projekts erhoben Daten an den Standorten Saarbrücken und Darmstadt. Das Sample bestand aus 22 Interviewten bei der Software AG – 14 in Darmstadt und acht in Saarbrücken. Die Interviews führten die Kollegen als Expertengespräche mit VertreterInnen des Managements aus diversen Leitungsfunktionen (Bereichs-, Abteilungs- und Teamleiter), aus HR, dem Betriebsrat sowie mit den Beschäftigten aus Entwicklung und Support durch. Dabei ging es um Fragen wie „Welche Bedeutung haben Daten im Arbeitsalltag?“ oder „Wie nutzen Beschäftigte selbst Daten aus dem Arbeitsprozess?“ und „Wie erleben sie die Transparenz?“.

Alle Interviews wurden bereits qualitativ ausgewertet. Erste Teilergebnisse der Forschungspartner zeigen, dass jüngere Befragte prinzipiell offener mit der Transparenz ihrer Daten umgehen, während etablierte Kollegen skeptischer gegenüber dem Vorhaben waren. Allerdings ist festzuhalten, dass auch sie, wie die jüngeren Kollegen, den Mehrwert der Transparenz erkannt haben und schätzen.

 

Kollegen für Praxislaboratorien gesucht

Das 36-monatige Projekt gliedert sich in drei Phasen: Analysephase, Pilotierungsphase und Transferphase. Am Ende jeder Phase steht ein Wissenschafts-Praxis-Dialog, bei dem sich Forschungspartner und die Software AG zusammenfinden, um die zentralen Befunde zu evaluieren und weiterzuentwickeln.

Im zweiten Quartal des nächsten Jahres soll dann in Praxislaboratorien der Prototyp in der Praxis angewendet werden. Es werden noch Kollegen aus der Entwicklung in Deutschland gesucht, die das Tool testen wollen. Wer Interesse hat, kann sich gerne bei den Projektleitern Christian Gengenbach oder Klotilda Muca melden.

 

Das Projekt Inverse Transparenz

In dem interdisziplinären Forschungsprojekt arbeiten drei wissenschaftliche Einrichtungen mit: das Institut für sozialwissenschaftliche Forschung München (ISF München), die Technische Universität München (TU München) und die Ludwig-Maximilians-Universität München (LMU München). Sie alle haben es sich zum Ziel gesetzt, Potenziale und Anwendungsszenarien inverser Transparenz in einer digitalen Arbeitswelt zu bestimmen. Die Software AG ist nicht nur ein relevanter Forschungspartner aus der Industrie, sondern hat die spezielle Rolle des Anwendungspartner in allen Phasen der Forschung übernommen. Konkret bedeutet dies, dass bei der Software AG die Pilotlösungen erprobt und Erfolgsfaktoren für eine breite Anwendbarkeit und Umsetzung des Kozepts entwickelt werden.

Teilen:
Umhüllt von Datenströmen und zartem Kakaoduft

Umhüllt von Datenströmen und zartem Kakaoduft

Im Rahmen des Forschungsprojekts EVAREST durfte ich die Schokoladenfabrik Lindt in Aachen besichtigen.

Tak, tak, tak, tak. Die Verpackungsmaschine in der Schokoladenfabrik rattert unermüdlich und  schafft 550 Tafeln in der Minute. So schnell kann ich gar nicht gucken. Zuerst wird die Tafel in hauchdünne Alufolie verpackt und dann mit dem bedruckten Karton umwickelt.  „Lindt Excellence 70% Cacao“ steht auf der Verpackung. Ab und zu fällt eine Tafel Schokolade in einen Korb. Fehler, aber der ist so unauffällig, dass ich erst mal nachfragen muss, warum die Tafel nicht weiter den Weg in den Karton findet. „Nicht korrekt gefaltet“, stillt der Werksarbeiter meine Neugierde. Bei Lindt herrschen hohe Qualitätsstandards. Bei der kleinsten Abweichung von der Norm wird aussortiert und gegebenenfalls nochmal eingeschmolzen.

Ich stehe mitten im einzigen deutschen Werk von Lindt, bewundere die hochmodernen Produktionsanlagen und nehme den zarten Kakaoduft wahr, der unaufdringlich in der Luft liegt. Manch einer beneidet mich um meine Mitwirkung im Forschungsprojekt EVAREST. Anlässlich des ersten Konsortialmeetings hat uns der Anwendungspartner Lindt zur Werksbesichtigung eingeladen. Der Besuch der Produktionshallen soll den Projektpartnern dabei helfen, bei aller „Datentheorie“ ein Gespür für den Anwendungsfall zu entwickeln.

Die Lindt & Sprüngli AG ist ein international tätiger Schweizer Schokoladenhersteller mit Sitz in Kilchberg (ZH) in der Schweiz. Die Gründung geht auf das Jahr 1898 zurück. 14.570 Mitarbeiter zählte die Unternehmensgruppe im Jahr 2018, die weltweit einen Umsatz von 4 313,2 Mrd. Schweizer Franken erwirtschaftet. Neben einer Vielzahl verschiedenster Tafelschokoladen stellt sie auch Pralinen her.  Dazu kommen saisonale Produkte wie Weihnachtsmänner oder Osterartikel.  Insgesamt wurden 2018 2.523 unterschiedliche Produkte produziert. Lindt ist in Deutschland mit einem sehr breit aufgestellten Schokoladensortiment auf dem Markt. Deutschland ist das Heim des Goldhasen und der gesamten Hohlfigurenproduktion für die Lindt & Sprüngli Gruppe.

Worum geht es bei dem vom BMWi geförderten Projekt EVAREST? In der Lebensmittelproduktion fallen massenhaft Daten an. Auf der Kakaoplantage, beim Transport und in den Fabrikhallen zählen, messen und sammeln Maschinen und Anlagen alle möglichen Werte. Von der Qualität der Rohware, über die saisonale Verfügbarkeit der Zutaten bis zur aktuellen Marktnachfrage. Wie viele Kakaobohnen ernten Bauern wann und wo? Wie steht es um die Qualität der Bohnen? Und welche Sorten ergaben besonders gute Schokolade. Analysen liefern eine Fülle von Informationen, Codes aus Zahlen und Buchstaben geben Auskunft über Rohstoff, Herkunft, Zuliefererketten, Qualitätskontrolle und Nachfrage. Diese Daten nutzen bisher nur der Bauer, der Lieferant und der Fabrikant vor Ort: jeder allein für sich, um jeweils seinen kleinen Teil der Kette im Auge zu behalten.

Gruppenfoto

Branche profitiert von Rohstoffdaten

Die Lebensmittelindustrie  will aus Datenströmen eine zusätzliche Einnahmequelle für Erzeuger und Hersteller schaffen. Aber auch für andere sind solche Daten aufschlussreich, erst recht, wenn die Informationen verknüpft werden. Weiß z. B. der Hersteller edler Schokolade früh über Qualität und Umfang der Kakaoernte Bescheid, kann er seinen Einkauf besser planen – etwa, wenn Bohnen bestimmter Güter absehbar knapp werden. Auch Finanzfachleute würden profitieren und könnten früh und fundierter Preisentwicklungen für Rohstoffe voraussagen. Solches Wissen ist bare Münze wert.

Das Projekt EVAREST hat im Januar 2019 begonnen. Ziel ist die Entwicklung und Verwertung von Datenprodukten als Wirtschaftsgut im Ökosystem der Lebensmittelproduktion. Als Basis soll eine offene technische Datenplattform geschaffen werden, die über Unternehmensgrenzen hinausgeht. Ferner werden  ökonomische und rechtliche Nutzungskonzepte entwickelt. „Die globale Serviceplattform wird auf Software der Software AG aufsetzen. Sie wird Produkte, Anlagen, Systeme und Maschinen verbinden und damit die Analyse und Verwertung von IoT-Daten in einem globalen Ökosystem ermöglichen“, sagt  Andre Litochevski aus dem Bereich Research, der seitens der Software AG für das Projekt verantwortlich ist. Zum Projektkonsortium gehören neben der Software AG und Lindt das DFKI als Konsortialführer, die Agrarmarkt Informations-Gesellschaft mbH (AMI), das Forschungsinstitut für Rationalisierung e.V. (FIR) an der RWTH Aachen und die Universität des Saarlandes.

Mit Kittel und Haube

Während der Werksbesichtigung lernen wir, wie sensibel die Schokoladenproduktion ist:  So spielt zum Beispiel die Temperatur in den Hallen eine große Rolle. Weicht die Temperatur der Schokoladenmasse nur um einen halben Grad ab – und je nach Produktionsstufe muss sie mal kühler oder mal wärmer sein, – verliert die Schokolade entweder ihren Glanz oder ist nicht mehr aus den Gießformen herauszubekommen.

Hygiene ist oberstes Gebot in der Schokoladenfabrik. Ohne Kittel und weiße Haube, für die Männer sogar Bartschutz, geht in den Produktionshallen gar nichts. Immer wieder passieren wir auf dem Weg zum Besprechungsraum oder in die Kantine Hygienestationen, wo wir unsere Hände waschen und desinfizieren und nach neuen Hauben greifen.

Auch der Arbeitssicherheit wird in der Produktion oberste Priorität eingeräumt. Bereits vor Jahren wurde an sämtlichen Produktionsstandorten ein entsprechendes „Health- & Safety“-Programm implementiert. Die Einhaltung der Ziele wird kontinuierlich überprüft. Unsere Besuchergruppe wird z. B. sehr konsequent gebeten, den Handlauf an der Treppe zu benutzen. Gebotsschilder weisen zusätzlich darauf hin. Es könnte sich ja Kakaobutter auf die Schuhsohle verirrt haben und die Treppe zur gefährlichen Rutschbahn machen.

Im Rahmen des Konsortialtreffens in Aachen wurden die Ergebnisse einer von den Partnern FIR und AMI konzipierten Umfrage vorgestellt. Diese wird als Input zum Status quo der Digitalisierung der industriellen Lebensmittelproduktion genutzt. Außerdem wurden während eines Workshops verschiedene Werte und Anforderungen für zukünftige Stakeholder des Ökosystems EVAREST entwickelt. Neben der Analyse von bestehenden und der Konzeption von zukünftigen Datenströmen in der Produktion wurden bereits Möglichkeiten zur Repräsentation von Datenprodukten sowie die Einsatzmöglichkeiten von Smart Contracts zur Absicherung von Datenprodukten im Ökosystem untersucht.

Und übrigens: Wer glaubt, neidisch auf meinen „Schokoladentag“ sein müssen,
den muss ich enttäuschen: Ich esse keine Schokolade

www.evarest.de

Teilen:
Aufbau eines Enterprise-Management-Systems

Aufbau eines Enterprise-Management-Systems

Wie behalten Sie Ihr sich ständig wandelndes Unternehmen im Griff? Unser Webinar „Eine Strategie, die alle erreicht: Aufbau eines Enterprise-Management-Systems mit ARIS“ zeigt, wie Ihnen das gelingt.

Das Webinar behandelt folgende Fragen:

  • Wie unterstützt ARIS Sie bei der Transformation Ihres Unternehmens? Wie gehen Sie persönlich mit der Veränderung Ihres Unternehmens um? In unserem exklusiven und interaktiven Webinar erfahren Sie, wie Sie Ihr Unternehmen während des Transformationsprozesses sicher steuern und die gesamte Organisation an den Transformationsprogrammen ausrichten.
  • Wie erhalten Sie bessere Einblicke in Ihr operatives Geschäft, und wie treffen Sie zukunftssichere Entscheidungen? Ein Enterprise-Management-System auf der Basis von ARIS schafft die Transparenz, die Sie brauchen, um Entscheidungen zu treffen, die Ihr Unternehmen voranbringen.

Das Webinar führt Sie durch die Schritte, die ausschlaggebend sind für die Steuerung und den Transformationsprozess Ihres Unternehmens.

  • Transformation: Ziele verwirklichen
  • Optimierung: Operational Excellence erreichen
  • Steuerung: Geschäftsbetrieb sichern

Profitieren Sie von Best Practices und Anwendungsfällen aus der Praxis. Unsere internationalen Transformationsexperten informieren Sie über die Erkenntnisse anderer Unternehmen, die mit ARIS ein Enterprise-Management-System aufgebaut und ihre Strategie erfolgreich umgesetzt haben.

Sie arbeiten bei einer Bank oder einem Industrieunternehmen? Sie beschäftigen sich mit Qualitätsmanagement oder mit Risikomanagement und Compliance? Oder sind Sie zuständig für das Center of Excellence Ihres Unternehmens und suchen Verbesserungsmöglichkeiten?

Was auch immer Ihre Rolle ist, in welcher Branche Sie auch immer Sie tätig sind – ein Enterprise-Management-System auf der Basis von ARIS ist der richtige Weg, und dieses Webinar ist der Beginn dieses Weges.

Entdecken Sie mit uns neue Perspektiven und melden Sie sich jetzt an!

Teilen:
API-Management macht Daten verwertbar

API-Management macht Daten verwertbar

In meinen Gesprächen mit Führungskräften internationaler Unternehmen kommt ein Thema fast unweigerlich zur Sprache: wie die Firmen ihre eigene digitale Transformation vollziehen und die dadurch endlich verfügbar werdenden Datenmengen verwerten können. Eine Frage, die Unternehmen fast jeder Branche und Größe beschäftigt, ist beispielsweise was der beste Weg ist, um mithilfe des Internets der Dinge die Daten nutzbar zu machen. Oder wie diese Datenfülle eingesetzt werden kann, um mit den Kunden noch besser zu interagieren, nutzerzentrierte Produkte und Services zu entwickeln und neue intelligente Ökosysteme zu schaffen. Die Antwort: Den Möglichkeiten sind kaum Grenzen gesetzt! Aber alles muss damit beginnen, sämtliche vorhandene Datenquellen zentral zu integrieren und mithilfe von Künstlicher Intelligenz (KI) zu interpretieren. Ohne Integration und Auswertung sind all diese Daten wertlos.

Wenn es um die Technik hinter der Integration geht, sprechen Unternehmer oft das Thema APIs an: „Brauche ich nicht auch APIs, wenn ich alle meine Datenquellen verknüpfen will?“ – dieses Missverständnis begegnet mir immer wieder. Ja, APIs können helfen, Transaktionssysteme, Kundensysteme und andere Datenquellen an ganz unterschiedlichen Standorten miteinander zu verbinden.
Zwei Dinge sind hierbei allerdings von besonderer Bedeutung. Erstens: Bei APIs geht es um mehr als nur um Integration. Sie können beispielsweise der Schlüssel zur Monetarisierung und gemeinsamen Nutzung von Systemen sein, die bereits im Unternehmen vorhanden sind. Zweitens: Für APIs (ebenso wie für Produkte) gilt, die Entwicklung ist nur der erste Schritt in einem Lebenszyklus. Ist der API-Lebenszyklus gut geführt, werden Daten zum Katalysator für Innovation und Wachstum. Ist er schlecht geführt, kann die Entwicklung entweder reine Zeit- und damit Geldverschwendung oder im schlimmsten Falle ein gigantisches Sicherheitsrisiko sein.

APIs sind also wichtig, um das Transformationspotenzial der eigenen Daten auszuschöpfen. Voraussetzung dafür ist das richtige Werkzeug, um den API-Lebenszyklus vernünftig zu steuern.

Der Markt für API-Management-Tools hat in den vergangenen Jahren einen grundlegenden Wandel erfahren: Sechs der führenden Anbieter wurden von Konzernen  übernommen. Die meisten dieser aufgekauften Firmen befinden sich derzeit auf einem absteigenden Ast.

Was bedeutet das für Unternehmen? Eine Firma muss den gesamten Lebenszyklus seiner APIs steuern, um den größtmöglichen Nutzen aus den eigenen Daten zu ziehen, Sicherheit zu garantieren und seine Unternehmenswerte zu monetarisieren.

Es gibt keinen Zaubertrick, mit dem Sie Ihre Organisation zum digitalen Unternehmen transformieren. APIs können Ihrem Unternehmen jedoch das Tor in eine Welt voll neuer Chancen öffnen. Was Sie dafür brauchen, ist ein umfassendes API-Management, das sicherstellt, dass die Innovationen, die durch APIs möglich werden, gewinnbringend genutzt werden.

Am besten wenden Sie sich hierzu an ein Unternehmen, das laut Gartner und Forrester zu den Marktführern gehört. Ein stabiles, unabhängiges und profitables Unternehmen, das seit 50 Jahren seinen Kunden ein zuverlässiger Partner ist.
Bei der Software AG geht es nicht um Zauberei, es geht um Innovation.

 

Teilen: