Intersystems updates

Von Datensümpfen zu sauberen Datenseen

Dass Daten der Rohstoff der Zukunft sind, ist längst in allen gesellschaftlichen Bereichen von Industrie über Sport bis Politik angekommen. Unternehmen etwa gewinnen aus ihnen wertvolle Informationen, die bei der strategischen und operativen Planung hilfreich sind. Die richtigen Schlüsse aus den Daten zu ziehen, ist allerdings nicht immer einfach. Die schiere Anzahl an Daten kann überfordern und dazu führen, dass der Datenschatz in Datensümpfen verloren geht. Diese müssen in saubere Data Lakes (zu Deutsch: Datenseen) verwandelt werden, damit ein vollumfänglicher Einblick in die eigenen Daten möglich ist. Wie schwierig dieser Prozess ist und welche Vorteile Analytics Workflow und künstliche Intelligenz bringen, veranschaulicht das Beispiel der Analyse einer Customer Churn (zu Deutsch: Kundenabwanderung).

Auswertung durch künstliche Intelligenz und Machine Learning

Die Abwanderung von Kunden zu Mitbewerbern ist die „Höchststrafe“ für ein Unternehmen und wirkt sich unmittelbar auf die heutigen und auch antizipierten  Einnahmen eines Unternehmens aus. Die Abwanderungsgefahr zu analysieren und anschließend gezielt Gegenmaßnahmen (wie zum Beispiel das Retention-Marketing) einzuleiten, ist deshalb essenziell. Im Idealfall übernimmt an dieser Stelle eine künstliche Intelligenz die Auswertung, da so Abläufe und Analysen vollautomatisch und schnell miteinander verzahnt werden. Damit dies funktioniert, sind jedoch einige Vorarbeiten zu leisten. Am Anfang steht die zweckmäßige Aufbereitung der zur Auswertung benötigten Daten. Im nächsten Schritt ist dann Machine Learning erforderlich, um der künstlichen Intelligenz beizubringen, wie sie künftig in bestimmten Fällen zu handeln hat. Unsere Datenplattform InterSystems IRIS unterstützt die Methode Analytics Workflow, bei der diese Vorarbeiten in mehrere Prozessabschnitte aufgeteilt, die Arbeitsabläufe abgestimmt werden und dadurch an Komplexität verlieren.

Analytics Workflow

In der Praxis führen mehrere Akteure jeweils aufeinanderfolgende Aufgaben durch. Beispielsweise besteht das IT-Team eines Versandhandels aus Stefan (Data Engineer), Michael (Data Modeler), Alexandra (Data Scientist) und Nicole (Interface Engineer). Der Analytics Workflow spielt sich mit ihnen wie folgt ab:

  • Im ersten Schritt erfasst Stefan Daten aus der eigenen Customer Relationship Management- und Kundendienstdatenbank und führt diese zusammen. Sie enthalten unter anderem demografische Informationen über Kunden und Angaben zu ihren bisherigen Erfahrungen mit dem eigenen Unternehmen.
  • Michael nutzt im Anschluss den kombinierten Datensatz, um Abfragefunktionen zu erstellen, durch die Details über die Kundenabwanderung zu Tage kommen. Dafür führt er auch die Aggregation und Denormalisierung des ursprünglichen Datensatzes durch.
  • Auf Grundlage des neuen Datensatzes und der Abfragefunktionen erstellt Alexandra ein Modell zur Vorhersage des künftigen Kundenabwanderungsrisikos. Um eine möglichst genaue Berichterstattung zu erhalten, muss das Modell auf den gesamten Datensatz angewendet werden. Anschließend stellt Alexandra das Modell für die Einbettung in den Geschäftsprozess bereit.
  • Jetzt greift der Machine Learning-Prozess: Anhand des Modells befähigt Michael die künstliche Intelligenz dazu, Datenanalysen automatisch zu verrichten und standardisierte Berichte für die proaktive Kundenansprache zu liefern.
  • Im letzten Schritt bettet Nicole das Modell zusammen mit der künstlichen Intelligenz in den aktiven Geschäftsprozess ein. Kundendienstmitarbeiter werden dann fortwährend auf Kunden aufmerksam gemacht, bei denen eine Abwanderung droht und können individuell auf diese Kunden zugehen.

Aus den zuvor undurchsichtigen Datensümpfen sind nun saubere Datenseen geworden, die aussagekräftige Resultate bereithalten und dabei helfen, Gegenmaßnahmen im Falle einer drohenden Kundenabwanderung in die Wege zu leiten.

Machine Learning leicht(er) gemacht

Am Machine Learning-Prozess sind viele Mitglieder eines Teams wesentlich beteiligt. Häufig verwendet jeder Akteur dabei jeweils andere Tools und Programmiersprachen, die häufig nicht miteinander kommunizieren können. Mit InterSystems IRIS gelingt es, den Gesamtprozess zu steuern und Fehler zu minimieren. Alle Werkzeuge sind an die Datenplattform angebunden und diese schafft als Vermittler die notwendige Interoperabilität zwischen den Tools. Ohne InterSystems IRIS müssten die Daten nach jedem Schritt aufwendig standardisiert und portiert werden. Ein weiterer Vorteil: Die Datenplattform vereint sowohl Funktionen für den Analyse-Workflow als auch für die Auswertung selbst. Um den ML-Prozess zu initiieren, lassen sich die Einzelvorgänge via InterSystems IRIS effizient orchestrieren. So lässt sich das bestmögliche Resultat erzielen.

Weitere interessante Themen

Unsere Events

Downloads

pdf
Die Gesundheitsversorgung der Zukunft überwindet traditionelle Schranken

Umfassende Versorgung – ohne Silos und Sektorengrenzen

Die Notwendigkeit, Modelle für eine tragfähige Gesundheitsversorgung zu entwickeln, pressiert.

Impulse Blog
pdf
Innovation. Information. Interoperabilität

Experteninterview mit Helene Lengler mit Markus Plettendorf vom Handelsblatt

Daten sind das Gold des 21. Jahrhunderts. Erfahren Sie warum Innovation, Information und Interoperabilität gemeinsam gedacht werden müssen.

Video
pdf
InterSystems TechBrief Upgrade

Sind Sie bereit für die digitale Transformation?

Für viele Unternehmen bedeutet digitale Transformation, einen tiefgreifenden Wandel zu vollziehen. Die Einführung neuer Technologien und Lösungen kann Betriebsabläufe grundlegend verändern.

TechBrief Upgrade