Zukunftstechnologien – was in den nächsten Jahren auf uns zukommt!

Zukunftstechnologien – was in den nächsten Jahren auf uns zukommt!

Die digitale Transformation verändert die Produktherstellung, den Vertrieb, die Auslieferung und den Service. Dieser Wandel zwingt Unternehmen, bei der Ausführung von Geschäftsprozessen, bei Managementmethoden und vor allem bei Informationssystemen neue Wege zu gehen. Die Software AG beschäftigt sich in einer Online-Konferenz zum Produkt-Release 2018 intensiv mit den Zukunftstechnologien, die unsere Welt verändern.

Digitalisierungsexperten der Software AG präsentieren im Oktober ihre Ideen für die Zukunft von IoT, Advanced Analytics und Machine Learning – und das in einer kompakten Online-Veranstaltung. Diese ist gleichzeitig der erste gemeinsame öffentliche Auftritt des neuen CEO, Sanjay Brahmawar, mit dem CTO, Dr. Wolfram Jost. Beide Sprecher werden in Vorträgen die Vision, die Strategie und die Produktplanung der Software AG für das kommende Jahr erläutern. Sie stellen ihre Perspektiven vor, geben Einblicke in die Technologien, die hinter der Digitalisierung stehen, und diskutieren, wie die neuen Produktfunktionen und Angebote der Software AG sich in das Anforderungsbild der digitalen Welt einfügen.

Darüber hinaus werden Interessenten in der Konferenz über die neuesten Produkt-Updates, innovative Funktionen und Verbesserungen, Produktfahrpläne und Produktstrategien der Software AG informiert.

Release-Neuigkeiten gibt es zu den Produkten

  • Adabas & Natural
  • Cumulocity IoT
  • Alfabet
  • Digital Business Platform
  • Apama
  • Terracotta
  • ARIS
  • webMethods

Live dabei sein

Die Veranstaltung findet an drei aufeinanderfolgenden Tagen zu unterschiedlichen Uhrzeiten statt. Teilnehmer können den Termin auswählen, der ihnen am besten passt: Für alle, die beispielsweise in Berlin oder London sitzen, ist der Termin am Dienstag, den 9. Oktober, geeignet. Für New York oder São Paulo ist Mittwoch, der 10. Oktober, der passende Termin. Interessenten, die in Singapur, Tokyo oder Sydney teilnehmen möchten, melden sich für den Termin am Donnerstag, den 11. Oktober, an.

Kurzweilig und kompakt informieren die Experten der Software AG über die neuesten Produktfunktionen, Angebote und Technologien, die alle eines gemeinsam haben: Sie machen unseren Arbeitsalltag leichter.

Weitere Informationen, das Programm der Veranstaltung sowie die Möglichkeit, sich kostenlos zur Konferenz anzumelden, finden Sie hier.

Teilen:
Versicherungen auf dem Weg in eine von Algorithmen dominierte Zukunft

Versicherungen auf dem Weg in eine von Algorithmen dominierte Zukunft

Keine Frage: Künstliche Intelligenz (KI) ist derzeit eines der populärsten Trendthemen. Mit unzähligen Beispielen wird verdeutlicht, welche bahnbrechenden Entwicklungen wir zukünftig zu erwarten haben. Da wird optimistisch über selbstfahrende Autos und Drohnen spekuliert oder es werden Roboter gezeigt, die bald Arbeiten im Warenlager und bei der Altenpflege übernehmen. Und es gibt beunruhigende Szenarien von autonomen Kampfrobotern und der totalen (Video-) Überwachung von Aktivitäten im öffentlichen Raum, die sofort Erinnerungen an den Roman „1984“ hervorrufen.

Auch in der Versicherungsbranche kommt KI bereits zum Einsatz. Die Auswirkungen sind weniger spektakulär, aber nicht minder weitreichend. Schon heute gibt es zahlreiche Beispiele, welche die Richtung vorgeben:

  • Im Vertrags- und Bestandsmanagement kann sich der Kunde an einen Chatbot wenden (z.B. Uniqa ServiceBot), um sich über die verfügbaren Versicherungsprodukte zu informieren. Dies geschieht nicht nur, um die Mitarbeiter der Versicherung zu entlasten, sondern auch, um eine spezielle Zielgruppe zu adressieren: Menschen, die sich nicht mehr unbedingt mit anderen Menschen unterhalten wollen, sondern den asynchronen Dialog mit einem Algorithmus vorziehen.
  • Im Schadenmanagement werden für proaktive Schadensregulierungen bzw. Sofortregulierungen Algorithmen eingesetzt, um mit weniger Arbeitsaufwand (also Kosten) schneller Entscheidungen treffen zu können. Das Ziel dabei ist es, den Kunden zeitnah auszahlen zu können und an die eigene Versicherung zu binden. Bei Massenregulierungen, etwa nach einem Hagelsturm, können Algorithmen die Bilder der Schäden oder die Scans der beschädigten Karosserien mittlerweile mindestens so gut beurteilen wie Menschen. In jedem Fall können sie es schneller und ermüdungsfrei – bis zu 24 Stunden pro Tag.
  • Der Einsatz vernetzter Geräte (Internet of Things) wird mehr und mehr für die Bereitstellung von verhaltensbasierten Policen genutzt. Bei Krankenversicherungen kann das die Kontrolle sein, ob sich ein Patient an den verordneten Therapieplan hält. Fitness-Tracker werden mehr und mehr eingesetzt, um Versicherte zu einem gesünderen Lebensstil zu animieren. In beiden Fällen sind Algorithmen notwendig, um aus der Fülle an Daten relevante Einzelereignisse oder unerwünschte Entwicklungen zu identifizieren und schnellstmöglich darauf zu reagieren.
  • Im Bereich der internen IT ist schon heute das Abwehren von Cyberangriffen ohne den Einsatz von Algorithmen kaum noch vorstellbar. Bei geschätzten 600 Millionen Angriffen täglich wird schnell deutlich, dass Menschen alleine hoffnungslos überfordert sind und deshalb der Einsatz von KI unbedingt notwendig ist.

Diese Beispiele stellen nur den Anfang einer Entwicklung dar, die sich in den nächsten Jahren noch beschleunigen wird. Die Konsequenzen davon sind vielfältig:

  • Versicherungen werden zukünftig proaktiver entscheiden und handeln als in der Vergangenheit. Der Blick in den Rückspiegel weicht dem Blick durch die Windschutzscheibe.
  • Versicherungen werden Produkte viel stärker als heute auf Basis individueller Risiken und Verhaltensweise entwickeln und mit Preisen belegen, die nicht mehr pauschal für ein Jahr gelten, sondern für kürzere Zeiträume und personenbezogene Anforderungen.
  • Die Bedürfnisse des Kunden bei der Interaktion mit der Versicherung (Customer Experience) werden noch stärker in den Mittelpunkt treten. Der Kunde wird individuell und ganzheitlich gesehen und bekommt in Echtzeit Rückmeldungen von seiner Versicherung.

Dafür müssen sich Versicherungen umfassend auf die Nutzung von Künstlicher Intelligenz vorbereiten. Dies beinhaltet:

  • Organisation: Versicherungen müssen noch mehr internes KI-Know-how entwickeln und bereitstellen. Dem „Data Scientist“ kommt dabei eine zentrale Rolle zu. Zudem müssen Versicherungen ihre Mitarbeiter von Routinetätigkeiten entlasten, sodass diese zusammen mit Data Scientists an der Umsetzung der KI arbeiten können. Durch diese Freiräume für neue Innovationen können durchaus erste, kleinere KI-Projekte entstehen.
  • IT: Versicherungen brauchen leistungsfähige IT-Plattformen, um KI erfolgreich einzusetzen. Das beste Modell eines Data Scientists nützt wenig, wenn es nicht in der Praxis eingesetzt werden kann. Das Modell muss mit echten Stammdaten, Daten des Kunden sowie externen Daten (beispielsweise Wetter-Daten) versorgt werden, um Entscheidungen unterstützen zu können. Es muss sozusagen „die letzte Meile“ überwinden.
  • Daten-Governance: Die IT-Plattform muss um eine entsprechende Daten-Governance ergänzt werden, die beschreibt, wo die Daten herkommen (aus dem eigenen Haus oder von extern) und wie und von wem die Daten verwendet werden. Schließlich muss sichergestellt sein, dass Datenqualität und Datenschutz gewährleistet sind. Nur wenn Daten klassifiziert sind, können sie für das Trainieren von Modellen (insbesondere Neuronale Netzwerke) eingesetzt werden.

Versicherungen müssen flexibel sein

Die Auswirkungen von KI auf Versicherungen werden massiv sein. Die aufgezeigten Anwendungsfälle sind nur der Anfang einer Entwicklung, die alle Sparten und alle Produkte der Versicherungen betreffen wird. Heute sind weder das genaue Zielbild noch der optimale Weg dorthin bekannt. Daher gilt es, sich so flexibel wie möglich aufzustellen. So verbaut sich die Versicherung nicht den Weg in eine von Algorithmen dominierte Zukunft.

Mehr über die Digitale Transformation von Versicherungen lesen Sie hier.

Teilen:
Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz braucht schlaue menschliche Köpfe

Künstliche Intelligenz ist derzeit in aller Munde. Analysten sagen der neuen Technologie enormes Potenzial für die Wirtschaft voraus. Unternehmen quer über alle Branchen hinweg setzen sich mit den Möglichkeiten von maschinellem Lernen und automatisierten Entscheidungen auseinander. Doch die Umsetzung wird vor allem durch eines ausgebremst: den Fachkräftemangel.

Wenn man sich die Masse an Medien- und Social-Media-Meldungen zum Thema KI ansieht, scheint künstliche Intelligenz heute nahezu allgegenwärtig. Produktankündigungen, Forschungsergebnisse und Artikel, die sich mit den Möglichkeiten von KI auseinandersetzen, überfluten den Markt. Im privaten Alltag findet KI bereits große Akzeptanz. So zeigt eine aktuelle Studie des Branchenverbandes Bitkom, dass drei Viertel der befragten Bundesbürger KI-basierte Empfehlungen für optimale Reiseverbindungen gut finden, und 69 Prozent freuen sich, wenn bei der Internetsuche dank künstlicher Intelligenz die besten Ergebnisse ganz oben stehen.

KI ist in der Praxis angekommen

Auch im Unternehmensumfeld rauchen derzeit viele Köpfe, wie man am besten von KI profitieren kann. Über alle Branchen hinweg gibt es bereits zahlreiche Anwendungen. In der Industrie optimieren selbstlernende Algorithmen zum Beispiel mit vorausschauender Wartung die Produktion. Im Banken- und Versicherungsumfeld helfen intelligente Systeme dabei, Betrugsfälle in Echtzeit aufzudecken und zu vermeiden. Und in der Automobilbranche entwickeln die Hersteller mit Hochdruck das autonome Fahren. Laut einer aktuellen IDC-Studie hat ein Viertel der deutschen Unternehmen bereits KI-Projekte umgesetzt, und 69 Prozent planen dies in den nächsten zwölf Monaten. Den Analysten zufolge werden die weltweiten Ausgaben für künstliche Intelligenz und Machine Learning bis 2020 auf über 40 Milliarden US-Dollar steigen.

Warum diese Begeisterung? Die Antwort liegt auf der Hand: Künstliche Intelligenz und maschinelles Lernen bieten Unternehmen die Möglichkeit, das Potenzial ihrer Daten erst richtig auszuschöpfen. Denn mit dem Internet der Dinge wächst die verfügbare Datenmenge ins Unendliche. Es reicht jedoch nicht aus, Informationen einfach nur zu sammeln, man muss sie auch in Wissen verwandeln. Um dies bei der wachsenden Datenflut zu meistern, kommen selbstlernende Algorithmen ins Spiel.

Fachkräftemangel als größte Herausforderung

Künstliche Intelligenz ist allerdings kein Selbstläufer. Damit sie überhaupt erfolgreich sein kann, braucht sie nicht nur Hochleistungs-Technik, sondern auch Menschen. Unternehmen benötigen Data Scientists, die geeignete Datenquellen für eine Fragestellung identifizieren und die Analysen vorbereiten. Sie müssen unter anderem passende analytische Modelle erstellen, Tools auswählen und interdisziplinär über den Tellerrand hinausschauen. Außerdem sind Data Engineers gefragt, die die Daten bereinigen, aufbereiten und analysefähig machen.

Doch solche Fachkräfte sind Mangelware und auf dem Markt heiß begehrt. Laut der bereits oben erwähnten IDC-Studie fehlt es in mehr als 80 Prozent der befragten Unternehmen an geeigneten Spezialisten. Händeringend gesucht werden Data Scientists, Entwickler, Datenbank-Manager, Business-Analysten sowie Trainer. Zwar gibt es an deutschen Universitäten bereits zahlreiche Studiengänge mit dem wohlklingenden Abschluss Data Scientist, doch bis diese Absolventen auf den Arbeitsmarkt kommen, dauert es noch einige Zeit. International sieht es nicht viel besser aus. McKinsey beispielsweise prognostiziert, dass bis 2024 alleine in den USA 250.000 Data Scientists fehlen werden.

Keine Zeit zu verlieren

Unternehmen sollten sich daher nicht nur darauf konzentrieren, neue Fachkräfte zu rekrutieren. Genauso wichtig ist es, Mitarbeiter weiter zu qualifizieren und fehlendes Know-how aufzubauen. Die Bitkom Akadmie bietet z.B. hierfür seit Kurzem in Zusammenarbeit mit dem Deutschen Forschungszentrum für KI (DFKI) den bundesweit ersten Zertifikatslehrgang „Ausbildung zum KI-Manager“. Außerdem können Unternehmen durch Zusammenarbeit mit externen Spezialisten Know-how-Lücken schließen. Denn eines ist klar: Abwarten ist keine Lösung. Im internationalen Vergleich liegt Deutschland im KI-Bereich nur im Mittelfeld, so die IDC-Studie. Es wird also höchste Zeit, mit der Aufholjagd zu beginnen.

Hier erfahren Sie mehr über die KI-Angebote der Software AG.

Teilen:
IT-Architekturen im Wandel

IT-Architekturen im Wandel

Digitale Plattformen bieten Unternehmen die nötige Agilität und Flexibilität, um die unternehmenseigene IT-Architektur wirkungsvoll zu gestalten und den Weg der Digitalisierung erfolgreich zu beschreiten. Bisher eingesetzte Standardsoftware erreicht schnell die Grenzen der Flexibilität, wenn aufgrund eines neuen Geschäftsmodells neue Prozesse und  Organisationsstrukturen schnellstmöglich implementiert werden müssen. Über den Innovationsfaktor „Software“ und die richtige IT-Architektur für die Digitalisierung haben wir mit Dr. Wolfram Jost, Chief Technology Officer der Software AG, gesprochen.

Dr. Jost, sind Altsysteme – gerade in geschäftskritischen Bereichen – eine unüberwindbare Hürde auf dem Weg zum digitalen Unternehmen?

Nein, eine Anwendungs- und Technologie-Architektur wird selten von Grund auf neu entwickelt. Im Gegenteil: Ältere Systeme werden oft gebraucht, um zentrale Geschäftsprozesse entscheidend zu unterstützen. Der wesentliche Wert dieser Systeme liegt in der Geschäftslogik, die über viele Jahre entwickelt wurde und häufig einen Differenzierungsfaktor im Wettbewerb darstellt. Der geeignete Ansatz für die Digitalisierung ist daher eine Modernisierung, also ein Facelifting vorhandener Anwendungen. Diese Modernisierung kann sowohl am Front End (User Interface) als auch im Back End (Application Integration) stattfinden.

Wie sieht die Einbindung von traditionellen Systemen aus?

Über offene Programmierschnittstellen lassen sich ältere Anwendungen mit webbasierten, modernen Benutzeroberflächen ausstatten. Eine weitere Chance für digitale Wertschöpfung ist die Integration von traditionellen Applikationen in Cloud- oder mobile Anwendungen. Eine Modernisierung des „Bestands“ führt oft zuverlässiger und effizienter zum Erfolg, als eine bewährte Lösung komplett aufzugeben und durch eine Neuentwicklung zu ersetzen. Diese Neuentwicklungen scheitern in den allermeisten Fällen, weil man das, was man über Jahrzehnte mit viel Know-how entwickelt hat nicht mal „schnell“ neu entwickelt. Dabei handelt es ich hier primär nicht um ein technologisches, sondern vielmehr um ein fachliches Problem. Das domänenspezifische Know-how ist oft nicht mehr im dem Maßen vorhanden, wie es sein müsste, um alles nochmals neu zu entwickeln. Ein weiterer Punkt ist, dass bei solchen Neuentwicklungsprojekten häufig ein „Overengineering“ stattfindet. Es wird versucht, alles was man sich theoretisch vorstellen kann, in das System zu implementieren.

Was genau lässt sich an der genutzten Software ablesen?

Software war und ist DER Innovationsfaktor am Markt und blickt mittlerweile auf eine über 40-jährige Entstehungsgeschichte zurück. In den Anfangsjahren versorgten externe Entwickler Unternehmen mit individuellen, funktionsbezogenen IT-Programmen, die Geschäftsprozesse im Finanz- oder Personalwesen unterstützten. Hardware, Daten und Software waren eine monolithische Einheit. Damals galten Unternehmen als modern und innovativ, wenn sie überhaupt Software nutzten und die Entwicklung erfolgte ausnahmslos individuell für ein Unternehmen. Erstes und einziges Zielsystem war der Großrechner.

Damals beanspruchten Computer noch ganze Räume.

Genau, erst mit der Verkleinerung und „Beschleunigung“ der Hardware und den auf dieser neuen Hardware beruhenden Standardanwendungen fanden die Computer ihren Weg in die Büros. Die Anwendungen wurden von externen Softwareanbietern entwickelt und vermarktet. Softwarepakete von der Stange bedienten nicht mehr nur einzelne Funktionen, sondern mit der Zeit fast sämtliche administrativen Geschäftsprozesse eines Unternehmens. Vorteile waren konsistente Daten, integrierte Geschäftsprozesse, benutzerfreundliche Oberflächen und mehr Wahlfreiheiten bei Hardware und Datenbanksoftware. Durch das Aufkommen des Internets wurde der Browser zum neuen Front End und ermöglichte hierüber den Zugriff auf Geschäftsanwendungen. Damit eröffnete sich ein vollkommen neuer Kommunikations- und Vertriebskanal für Unternehmen, dessen Potenzial wir mit dem Schlagwort E-Business/E-Commerce umschreiben.

Welchen Stellenwert nimmt Software heute ein?

Während bisher Effizienz, Kostenoptimierung und Standardisierung administrativer Geschäftsprozesse im Vordergrund standen, geben digitale Plattformen den Unternehmen heute ihre Innovationsfreiheit zurück: Dank der schnellen Entwicklung und Integration innovativer Anwendungen auf der Basis von plattformbasierten Softwarearchitekturen können sie ganz neue Geschäftsmodelle entwickeln. Die Verbesserung der Customer Experience ist hierbei das Schlagwort. Die Wünsche, Bedürfnisse und das Kauferlebnis der Kunden und Partner stehen heute im Mittelpunkt des Unternehmens. Daten zum Kauferlebnis werden möglichst in Echtzeit analysiert. Deren Rückmeldungen bildet die Basis, um neue, digitale Kundenerlebnisse zu schaffen.

Welche Bausteine sind für eine digitale Plattform erforderlich?

In-Memory Data Stores, Integration, API-Management, Process Automation, Analytics sowie Business Design und IT-Portfolio-Management – das sind die zentralen Softwarebausteine einer digitalen Technologieplattform, die jedes Unternehmen braucht. Alle digitalen Fähigkeiten sind Microservice-orientiert, API-fähig und ereignisbasiert. Eine digitale Plattform bildet das Fundament für die digitale Architektur des Unternehmens. Sie stellt alle zentralen Funktionen und Komponenten bereit, um digitale Architekturen und Applikationen für innovative Anwendungsszenarien zu konzipieren, zu implementieren und zu managen. Damit bestimmen die Unternehmen wieder selbst ihren Innovationszyklus – nicht der Anbieter der Standardsoftware.

Wo liegen die Herausforderungen beim Aufbau einer solchen Architektur?

Zentral für den richtigen Zuschnitt einer Technologiearchitektur sind die von der Anwendung zu verarbeitende Datenmenge, Nutzerzahlen sowie die gewünschte Flexibilität, Performance und Skalierbarkeit. Ein Entwickler läuft stets Gefahr, dass er den Zuschnitt zu groß oder zu knapp dimensioniert. Die Folge können mangelnde Prozessunterstützung, fehlende Agilität und Skalierbarkeit, umständliches Betriebsmanagement und geringe Benutzerakzeptanz sein. Bei jedem Unternehmen ist der Aufbau einer digitalen Arichitektur anders – es gibt kein allgemeingültiges Standardkonzept. Solche Architekturen entstehen auch nicht über Nacht. Sondern sie entwickeln sich über die Zeit.

Gibt es so etwas wie ein Herzstück in einer digitalen Architektur?

Ja, das sind die Integrationstechnologien. In heterogenen und verteilten Architekturen ist Integration eine core capability. Sie dient dem Design, der Implementierung und dem Management von komplexen Integrationsflüssen. Ihre wichtigsten Funktionen sind Routing, Mapping, Transformation, Orchestrierung, Sicherheit und Mediation. Die entwickelten Integrationsflüsse werden als Microservices mit offenen Schnittstellen bereitgestellt, die kleinere Softwaremodule einer größeren, komplexen Integrationsanwendung sind. Sie können unabhängig voneinander implementiert, bereitgestellt, aktualisiert und verwaltet werden.

Digitale Architekturen sind also für Unternehmen das A und O auf dem Weg in die digitale Transformation?

Genau. Die Architektur bestimmt die Skalierbarkeit, Performance, Sicherheit, Wartbarkeit und Flexibilität der digitalen Anwendungen. Zu beachten ist außerdem, dass digitale Architekturen ihren vollen Nutzen nur dann entfalten, wenn die dahinter liegenden fachlichen Anwendungskonzepte differenziert und innovativ sind. Doch mindestens genauso wichtig sind Geschäftsmodellierung und IT-Portfolio-Management. Denn: Ohne zu wissen, was die eigentlichen betriebswirtschaftlichen Zusammenhänge sind und wie man den Übergang vom Ist- zum Soll-Zustand managen kann, wird die digitale Transformation zwangsläufig scheitern.

Mehr zum Thema digitale Transformation lesen Sie hier.

Teilen:
Interview mit Dr. Michael Schmitt von Sensor-Technik Wiedemann: Die Zukunft der Maschinen ist digital

Interview mit Dr. Michael Schmitt von Sensor-Technik Wiedemann: Die Zukunft der Maschinen ist digital

In Stuttgart, München und Hamburg machte die IoT Innovation Tour 2018 bereits im Mai Station. Experten aus Industrie, Logistik und Handel stellten ihre besten IoT-Projekte vor und erläuterten, was Unternehmen benötigen, um am Zukunftsthema Industry of Things teilzunehmen. Dr. Michael Schmitt, Geschäftsführer der Sensor-Technik Wiedemann GmbH (STW), erläutert im Interview, welche Möglichkeiten sich durch IoT für den Maschinenbau ergeben.

Herr Schmitt, wie verändert IoT das Geschäft der Maschinenbauer?

Unser Unternehmen ist in einer Zeit entstanden, als Maschinenbauer noch selbst Maschinen gebaut haben. Heute hingegen stehen zunehmend nicht mehr die Maschinen im Vordergrund, vielmehr geht es um den Arbeitsprozess. Durch die Vernetzung von Prozessdaten entstehen ganz neue Geschäftsmodelle.

Was meinen Sie mit neuen Geschäftsmodellen? Können Sie das näher erläutern?

Endkunden haben heute nicht mehr die Notwendigkeit, Maschinen zu kaufen, sondern können diese einfach mieten, beispielsweise im Straßenbau. Abrechnungen erfolgen dann nicht pauschal, sondern benutzungsabhängig. Das bedeutet, der Kunde bezahlt nur das, was er an Maschinenleistung verbraucht hat. Das senkt bei vielen Unternehmen die Hemmschwelle, denn sie müssen keine teuren Investitionen tätigen und können Maschinen ganz bedarfsorientiert anfordern und flexibel einsetzen. Dem Maschinenbau wiederum eröffnet dieses Konzept neue Möglichkeiten, digitale Services rund um ihre Produkte anzubieten.

Welche Möglichkeiten zum Beispiel?

Maschinendaten sind die neuen Investitionsgüter. Unternehmen mit einem bestehenden Geschäft können dieses erweitern, beispielsweise durch das genannte Konzept „mieten statt kaufen“, also die Abrechnung nach Nutzung. Darüber hinaus erfahren Unternehmen dank Daten mehr über ihre Maschinen, etwa ob sie eine Wartung durchführen müssen oder wie die Maschine tatsächlich genutzt und dahingehend optimiert werden kann. Auch darauf können sich neue Möglichkeiten ergeben. Das war für uns als Komponentenhersteller sehr schnell einleuchtend und wichtig. Durch die Analyse der erlangten Daten erhalten wir umfangreiches Wissen über unsere Maschinen, das uns zu mehr Effizienz und Effektivität verhilft. Zusätzlich wird die Digitalisierung im Zusammenspiel mit anderen Megatrends wie Elektrifizierung auch die Art und Weise verändern, wie Maschinen letztendlich aussehen. Früher wurden Maschinen immer groß konzipiert, damit die Kosten für den Betreiber stetig abnehmen. Entwicklungen wie autonomes Fahren und Arbeiten im Verbund machen das jedoch überflüssig. In absehbarer Zeit werden Maschinen also deutlich kleiner werden.


Dr. Michael Schmitt, Geschäftsführer der Sensor-Technik Wiedemann GmbH (STW)

Was bedeutet das für den Markt?

Der Markt befindet sich gerade in rapider Veränderung: Durch die Digitalisierung schieben sich neue Wettbewerber zwischen Bauunternehmer und Auftraggeber. Diese bieten datengetriebene Services an, die ich zuvor beschrieben habe. Sie stellen nicht die Maschine, sondern die Leistung in den Vordergrund und überholen so alteingesessene Unternehmen. Zwar handelt es sich häufig um Start-ups, was jedoch nicht heißt, dass ausschließlich junge Leute Kompetenzen im Bereich Digitalisierung haben. Zwei Kernkompetenzen müssen diese disruptiven Digitalunternehmen mitbringen: Sie brauchen einerseits Wissen über Prozesse in den Branchen, die sie fokussieren. Andererseits müssen sie natürlich eine gewisse IT-Affinität mitbringen. Das können auch Branchenkenner vorweisen, die sich mit neuen Geschäftsmodellen selbstständig machen.

Heißt das, dass langfristig Mittelständer von Start-ups verdrängt werden?

Nein, natürlich nicht. Aber der Markt verändert sich und damit auch die Bedingungen und Voraussetzungen, die Wachstum und Fortbestand absichern. Der deutsche Mittelstand – spürbar gerade im Maschinenbau – ist es gewohnt, Lösungen im eignen Haus und vor allem alleine umzusetzen. Unternehmen bauen ihre Maschinen selbst und wir haben es häufig erlebt, dass sie ihre IT auch im Alleingang umsetzen wollen. Der Weg der Maschinendaten in die Cloud soll im besten Fall dann nicht über einen Dienstleister, sondern aus eigener Kraft heraus erfolgen. Dabei könnten Partner helfen, die neuen Herausforderungen zu meistern und neue Märkte zu erschließen; und das auch noch schneller. Wie so eine Zusammenarbeit mit einem Partner aussehen kann, haben wir selbst ja mit Cumulocity erlebt.

Wie sind Sie auf die Lösung Cumulocity IoT der Software AG gestoßen?

Dass IoT-Plattformen die beste Lösung für datengetriebene Geschäftsmodelle sind, hatten wir bei unseren Recherchen bereits festgestellt. Als wir uns intensiver mit dem Thema „Digitalisierung“ befasst haben, gab es die Überlegung, eine eigene Plattform zu bauen. Auf einer Konferenz hatte ich dann die Chance, den Geschäftsführer von Cumulocity kennenzulernen, was mich überzeugt hat, eine Partnerschaft einzugehen. Mit Cumulocity – ebenfalls ein mittelständisches Unternehmen – haben wir einen Partner auf Augenhöhe gefunden, was das Arbeiten gleich einfacher und angenehmer macht.

Wohin wird die Reise im Bereich IoT und Maschinenbau gehen?

Der Markt wandelt sich gerade hin zu datengetriebenen Diensten. Wer weiterhin bestehen will, braucht inzwischen zusätzlich zur reinen Technik ein serviceorientiertes Geschäftsmodell. Eine solche Neuaufstellung sollten Unternehmen am besten durch Partnerschaften realisieren, um sich weiterhin auf ihre eigentlichen Kompetenzen konzentrieren zu können. Wenn Unternehmen aufhören, alles selbst umzusetzen, gelangen sie eher zu einer digitalen Strategie. Dass Unternehmen das verstehen, zeigt sich auch in der Arbeit mit unseren Kunden und Partnern: Während wir früher mit dem Verantwortlichen für Technik gesprochen haben, ist unser Ansprechpartner nun das Management. Das Thema ist inzwischen Chefsache.

Treffen Sie Dr. Michael Schmitt und weitere Sprecher live auf unserer IoT Innovation Tour in Düsseldorf, Wien und Zürich. Weitere Informationen zu der Partnerschaft von Sensor-Technik Wiedemann und der Software AG erhalten Sie hier.

Teilen:
Mitmachen statt zusehen: Software AG bietet „Industry 4.easy“ auf der CEBIT 2018

Mitmachen statt zusehen: Software AG bietet „Industry 4.easy“ auf der CEBIT 2018

Wer dem IoT bisher nur in der Theorie begegnet ist, hat auf dem CEBIT-Festival 2018 die Möglichkeit, innerhalb weniger Minuten ein eigenes IoT zu bauen und in der Praxis auszuprobieren: Als einer der Marktführer im Bereich IoT-Technologie bietet die Software AG vom 11. bis 15. Juni 2018 in Hannover kurze Workshops, in denen Besucher erleben, wie einfach der Einstieg ins IoT-Zeitalter ist. Anschließend können sie sich am Stand C44 in Halle 17 anhand von acht interaktiven Showcases davon überzeugen, welche innovativen Anwendungsfelder im IoT möglich sind – von Smart Devices im intelligenten Zuhause bis hin zur vernetzten Fabrik der Zukunft.

Das IoT ist keine Zukunftsvision mehr, sondern längst greifbare Realität in allen Branchen. Passend dazu gestaltet die Software AG ihren Auftritt bei der diesjährigen CEBIT nach dem Motto „Experience Everything“ und präsentiert ihr breites IoT-Portfolio in verschiedenen Demos, bei denen die Messebesucher sich aktiv einbringen können. Im Zentrum steht dabei der Workshop „Industry 4.easy“, bei dem Besucher ein eigenes IoT mithilfe kleiner Devices bauen können. Er findet täglich um 10:30 und um 14:00 Uhr am Stand der Software AG statt. Weitere Showcases bieten die unterschiedlichsten Mitmach-Möglichkeiten: Bei einem Showcase zu Logistik 4.0 beispielsweise erhalten Teilnehmer eine interne Bestellung und müssen über ein iPad einen Lego-Kran bedienen, um in einem Warenhaus die bestellten Güter auszuwählen und auszuliefern. Abenteuerlustige, die noch tiefer in die digitale Welt abtauchen möchten, können mit Virtual Reality eine Slackline an einem Eisberg in Grönland begehen.

Showcase 1: SMART ENERGY – intelligente Stromnetze

Intelligente Stromnetze (Smart Grids) setzen voraus, dass Energieerzeuger jederzeit wissen, wie viel Strom sie aktuell und zukünftig erzeugen. Cumulocity IoT, die IoT-Plattform der Software AG, kann die Erzeugung, Verteilung und Speicherung von Energie koordinieren: Über ein Smart Grid können die Unternehmen auf Angebot und Nachfrage in Echtzeit reagieren und ihre Anlagen entsprechend steuern – auch aus der Ferne. Der Showcase „Smart Energy“ bildet modellhaft die smarte Energieversorgung einer ganzen Stadt ab. Besucher erleben, wie Cumulocity IoT Schwankungen und Störungen im Netz minimiert und die Energieerzeuger dabei unterstützt, ihren Kunden den richtigen Mix aus erneuerbaren und fossilen Energien anzubieten. Dabei dürfen die Besucher selbst Hand anlegen und ein intelligentes Netz aus einem Windpark, einem Gaskraftwerk und einer Photovoltaikanlage steuern.

Showcase 2: SMART CITY – intelligente Mülltonnen und vernetzte Straßenbeleuchtung

Smart City macht Städte effizienter, fortschrittlicher und sozial inklusiver. Besucher erleben live, welche Vorteile Bürger davon haben, wenn sich Städte für einen schnellen, offenen und sicheren digitalen Ansatz entscheiden. Die Demo zeigt, wie Abfallentsorgung im Zeitalter von IoT verbessert werden kann – mit smarten Sensoren an Mülltonnen und über ein mobiles Portal für den Service. Beispielsweise verschickt das System eine Warnung, sobald eine Straßenlampe ausgetauscht werden muss. Alle Informationen stehen in Echtzeit zur Verfügung. Dieser Showcase gibt Zuschauern und Teilnehmern einen Einblick in die kommunalen Dienstleistungen einer smarten City, wie sie schon heute möglich sind.

Showcase 3: SMART CITY – Parkmanagementsysteme

Der Kampf um einen Parkplatz hat ein Ende – Cumulocity IoT von Software AG bringt Navigationskarten und Daten über Parkmöglichkeiten zusammen: Auf diese Weise können Autofahrer schnell und einfach mitten im Stadtzentrum nach einem Parkplatz suchen und ihn gleich reservieren. Die Information über den Standort wird sofort an das Navigationssystem des Autos übermittelt, das den Fahrer zu seinem reservierten Parkplatz navigiert. Dieses Beispiel zeigt, wie Predictive Analytics und Condition-Monitoring-Systeme Parkplatzanbieter dabei unterstützen können, dass jeder Parkplatz genutzt wird, sobald er verfügbar ist. In diesem smarten Parkmanagementsystem steckt viel Technologie – dank Cumulocity IoT, webMethods, ARIS und Apama hat die leidige Parkplatzsuche endlich ein Ende.

Weitere Informationen zum CEBIT-Auftritt der Software AG, Gesprächsterminen mit Experten vor Ort und Guided Tours finden Sie hier.

Teilen: