Ein intelligenter Algorithmus kostet nur Gehirnschmalz

INTERVIEW MIT JOSEF STEGSCHUSTER

Lesedauer: ca. 3 Minuten

Josef Stegschuster leitet bei der Tekaris GmbH das Geschäftsfeld Data Analytics. Als Numeriker schlägt sein Herz für Algorithmen, die Probleme lösen. Diese intelligenten Algorithmen, die Zusammenhänge entdecken und vorhersagen können, sind für ihn Enabler der digitalen Geschäftsabläufe der Zukunft.

Josef Stegschuster, Geschäftsführung "Data Analytics" Tekaris GmbH

Wie lange bist du schon im Bereich Data Analytics aktiv?

Mein erstes Projekt in diesem Bereich habe ich im Jahr 1990 als Student durchgeführt. Es ging um eine Anwendung zur Auswertung von Fragebögen.

Im Jahr 1994 kam das erste Data Warehouse Projekt für eine Bausparkasse, das einen monatlichen Verbrauch von 7t Papier für Listenausdrucke einsparte. Jeder Außendienstmitarbeiter bekam davor einmal im Monat ein Buch mit einer Unmenge von Listen zugesandt, von denen ihn nur eine einzige interessierte. Die neue Lösung brachte die Informationen früher und fokussierter zum Anwender. Außerdem konnte er die Berichte auf seine Bedürfnisse hin auch selber anpassen. Wesentliche Teile dieser Lösung sind heute noch nahezu unverändert im Einsatz.

Was umfasst Data Analytics?

Das geht los beim Data Warehouse, wo die Menge und Heterogenität der Daten so groß ist, dass es nötig ist, sie aus unterschiedlichsten Quellen zusammenzutragen und für den Anwender auf bequeme Art und Weise zugänglich und erfassbar zu machen.

Der nächste Schritt ist Business Intelligence, wo der Anwender einerseits auf zentrale Daten aus Data Warehouses, aber auch auf eigene oder öffentlich zugängliche Daten zugreifen, diese beliebig kombinieren, auswerten und für weitergehende Prozesse einsetzen kann, um Entscheidungen auf Basis objektiver Fakten zu treffen.

Diese Daten können nicht nur Menschen, sondern auch automatisierten Prozessen zur Verfügung gestellt werden. Damit arbeiten diese Prozesse nicht mehr nach starren, unflexiblen Regeln, sondern angepasst an die jeweilige Situation. Werden die Ergebnisse/Erkenntnisse dieser Prozesse wieder in das Data Warehouse bzw. die Analytics-Plattform zurückgespielt, entsteht ein Kreislauf, der die Datenqualität sukzessive verbessert.

Diese Verfahren setzen eine Kenntnis über das Wesen der verwendeten Daten voraus. Wenn dieses Wissen nicht vorhanden ist, helfen Methoden der Data Science, um Zusammenhänge in den Daten zu entdecken. Außerdem ermöglichen sie, den zukünftigen Verlauf von Datenreihen zu prognostizieren.

Was fasziniert dich an Data Analytics am meisten und warum?

Es geht hier um den Umgang mit großen und sehr großen Datenmengen. Ob die Abläufe in akzeptablen Zeitspannen zu bewältigen sind, hängt einzig und allein von den verwendeten Algorithmen ab. Hier kommt der Mathematiker, genauer der Numeriker in mir durch.

Einen Algorithmus mittels Hardware zu beschleunigen, ist extrem teuer und trotzdem sehr limitiert. Ein intelligenter Algorithmus kostet im Wesentlichen nur „Gehirnschmalz“.

Wie kann man im Unternehmen Data Analytics konkret einsetzen? Was kann man damit bewegen?

Der Klassiker ist das regelmäßige, standardisierte Reporting über eine Vielzahl von Einzeldaten in übersichtlicher Form und nach diversen Kategorien gegliedert, z.B. Vertriebsreporting nach Warengruppen, Verkäufergruppen, Kundengruppen, etc. um die Ergebnisbeiträge (Umsatz, Kosten, Gewinn, etc. ) dieser unterschiedlichen Kategorien zu messen.

Diese Werte können gegen Planzahlen auf der jeweils gleichen Granularitätsstufe gehalten werden. Auf diese Weise wird bei einer Planabweichung im Gesamten auch klar, welche Kategorien über- bzw. untererfüllen.

Anstelle einer Vielzahl von festen Reports kann dem Anwender zusätzlich eine Plattform zur Verfügung gestellt werden, mit er die Kombination und die Granularität dieser Kriterien frei wählen kann. Diese Analyse kann dann für den passenden Nutzerkreis veröffentlicht und regelmäßig aktualisiert werden.

Auf Basis der Daten können in der Analyse-Plattform auch eigene Werte berechnet werden, z.B. ob ein Kunde zu den A-, B-, oder C-Kunden gehört. Diese Information kann entweder regelmäßig in andere Systeme, z.B. ein CRM-System übertragen werden, welches diese einem Call-Center-Agenten in der Kundenmaske zur Verfügung stellt, oder zum Zeitpunkt der Nutzung immer aktuell errechnet werden.

Laufen Prozesse automatisiert ab, können Informationen aus einem Data Warehouse bei Entscheidungen, die die Prozesse zu treffen haben, genutzt werden, um diese Prozesse flexibel auf die jeweiligen Randbedingungen reagieren zu lassen, anstelle die möglichen Fälle als Alternativen im Programmcode zu hinterlegen.

Deine favourite Tools im Bereich Data Analytics?

• MS SQL Server mit allen Komponenten
• MS PowerBI
• Azure Cognitive Services

Künstliche Intelligenz: Auch ein Thema für dich?

KI (Künstliche Intelligenz) kann Korrelationen aufdecken, ohne notwendigerweise die Kausalität zu erkennen. John Snow, ein britischer Arzt, vermutete die Ursache einer Cholera-Epidemie in einem bestimmten Londoner Brunnen, weil er nach dem Einzeichnen der Fälle in einen Stadtplan die Nähe zu einem Brunnen festgestellt hatte, ohne zu wissen, dass Cholera über das Trinkwasser übertragen wurde.

KI kann Muster (in Bildern oder allgemein in Daten) vergleichen und Zusammenhänge feststellen. Wiederholt sich der Anfang eines solchen Musters, dann kann das Ende vorhergesagt werden. Das kann z.B. bei Predictive Maintenance eingesetzt werden, wo z.B. bestimmte Töne oder Schwingungen den Defekt eines Bauteils ankündigen, das dann zu einem geeigneten Zeitpunkt ausgetauscht wird, bevor es während des Betriebs ausfällt.
Ähnliches ist bei Zielgruppenselektionen im Marketing möglich, um ein Kaufverhalten zu prognostizieren.

Data Analytics: Wo stehen wir in 20 Jahren?

Daten sind die objektive Darstellung von vergangenen oder gegenwärtigen Zuständen oder die Beschreibung von in der Zukunft erwarteten Zuständen. Die Bedeutung wird noch steigen. Die Werkzeuge werden noch einfacher zu bedienen und noch leichter in Anwendungen zu integrieren sein.

Die Anwendung der Technologie wird auch mehr und mehr in das tägliche Leben hineinreichen. Auch heute schon erkennt die Foto-App eines Handys die erfassten Gesichter und optimiert das Bild. Die Integration dieser Technologien in Anwendungen kann die Menschen von routinemäßigen Arbeiten befreien und massiv in der Entscheidungsfindung unterstützen, indem immer besser, d.h. zielgerichteter und schneller auf den Gesamtbestand des weltweit gespeicherten Wissens zugegriffen werden kann.

Das Beherrschen sehr großer Datenmengen wird eine permanente Herausforderung sein, weil die Menge der erzeugten und gespeicherten Daten mindestens im selben Umfang wächst, wie die Verarbeitungsalgorithmen an Leistungsfähigkeit gewinnen.

Vielen lieben Dank für das Gespräch.

INSIGHTS ON JOSEF

Drei essentielle Tools, die du für deine tägliche Arbeit brauchst:

  • Handy
  • MS Office
  • MS SQL Server Management Studio

  • An einem arbeitsfreien Tag machst du:

  • Familie
  • Garten
  • Kochen
  • Motorrad

  • Wenn du einen zweiten Beruf ausüben würdest, wäre das:

    Mathelehrer/professor