Wie Unternehmen mit besseren Daten von der Analyse profitieren
5 min

Wie Unternehmen dank verlässlicher Daten von besseren Analysen profitieren

Daten in hoher Qualität bilden die Grundlage für bessere Entscheidungen im Unternehmen. Doch es braucht Vertrauen in die Daten, damit daraus ein Mehrwert und somit ein Wettbewerbsvorteil entsteht. Eine ganzheitliche Datenstrategie und eine zentrale Analytics-Plattform sind dazu essenziell.

Von den grossen Datenmengen, die in Unternehmen anfallen, kann oft nur ein geringer Teil gewinnbringend genutzt werden. Manche Datensätze befinden sich auf fragmentierten Systemen und stehen deshalb nicht zur Verfügung. Andere haben nicht die erforderliche strukturierte Form, oder ihre Qualität ist zweifelhaft. Wenn Qualität, Verfügbarkeit oder Vollständigkeit der Daten mangelhaft sind, kann ein Unternehmen nicht darauf vertrauen, dass sie optimale Analyseergebnisse ermöglichen. Dies erfordert auch, dass Prozesse ans neue System angepasst werden müssen – oder komplett neu geplant werden müssen.

ReThink AI-Workshop

Im ReThink AI-Workshop legen Sie den Grundstein für den Einsatz von künstlicher Intelligenz in Ihrem Unternehmen.

Mehrwert dank zentraler Datenplattform

Unternehmen müssen eine Datenstrategie entwickeln, mit der sie den Mehrwert ihrer Daten abschöpfen können. «Gemäss unserer Erfahrung halten viele Unternehmen in unterschiedlichen Abteilungen verschiedene Datensilos, aus denen sie einzelne Auswertungen erstellen. Da können sich Analyseergebnisse schon mal widersprechen oder sie sind mangelhaft. Die Firmen nutzen bei Weitem nicht das volle Potenzial ihrer Daten», sagt Ioannis Theocharis, Data & AI Consultant bei Swisscom. Nur aus vertrauenswürdigen Daten entstehen vertrauenswürdige Ergebnisse.

Im Idealfall werden unternehmensweit sämtliche relevanten Daten aus verschiedenen Quellen in der Cloud zusammengeführt, konsolidiert und für Analysen bereitgestellt, sodass sich daraus businessrelevante Entscheidungen treffen lassen. Dazu müssen Daten transparent erfasst und klassifiziert, strukturiert und homogenisiert werden. «Diese Aufwände können Unternehmen von einer Zusammenführung der Daten auf einer zentralen Analyseplattform abschrecken», so Dave Schadock, Teamleader Data & AI Consulting bei Swisscom. Wenn eine neue Datenplattform eingeführt wird, beispielsweise in Form einer Cloud-Migration, die ebenfalls eine Ablösung der bisherigen Datenarchitektur und -struktur bedeutet, habe dies im ersten Moment für das Business oftmals genau dieselbe Funktionalität wie das alte System. Die beiden Data-Experten erleben es deshalb immer wieder, dass auf Kundenseite der Nutzen angezweifelt wird: Wozu die grosse Erneuerung? «Never change a running system», höre man da gelegentlich.

Mehrwert erkennen und Hemmschwellen abbauen

Um die Zweifel zu beseitigen, muss das Potenzial, das eine neue Plattform bietet, kommuniziert werden. «Der Return on Investment folgt mit der intensiven Nutzung der Plattform unweigerlich. Die vielen neuen Möglichkeiten, die damit ausgeschöpft werden können, zahlen sich langfristig aus», so Schadock weiter. Er verweist auf diverse erfolgreiche Kundenprojekte. Zum Beispiel habe die Geobrugg AG eine 15-prozentige Effizienz- und Qualitätssteigerung erzielen können. Zudem entfiel die aufwendige, manuelle Pflege der sehr umfangreichen Excel-Sammlung.

«Oft lohnt es sich, erst einmal das Wichtigste zu migrieren, etwa die Prozesse fürs Kernbusiness.»

Dave Schadock, Teamleader Data & AI Consulting bei Swisscom

Verschiedene Wege führen zu einer Analytics-Plattform in der Cloud. Um diese Transformation, die aufwändig und komplex sein kann, nicht auf einmal durchführen zu müssen, lässt sich mit der entsprechenden Datenstrategie auch eine neue Lösung Schritt für Schritt realisieren. «Oft lohnt es sich, erst einmal das Wichtigste zu migrieren – die Prozesse fürs Kernbusiness etwa – und neue Use Cases auf der Plattform zu implementieren, um andere Anwendungen parallel noch im alten System zu lassen und sie später in die neue Architektur zu überführen», erklärt Ioannis Theocharis. Mit diesem pragmatischen Vorgehen lassen sich neue Features und Möglichkeiten nacheinander umsetzen, sodass mit den alten Systemen noch weitergearbeitet werden kann. Medienbrüche, wie sie in unterschiedlichen, verteilten Systemen vorkommen, werden mit dem fortlaufenden Übergang zur zentralen Datenplattform kontinuierlich abgebaut.

KI zum Mitdenken

Werden für eine Analyse-Plattform Daten aus eigenen Bestandssystemen verwendet, ist die Vertrauenswürdigkeit meistens gegeben. «Bei aggregierten Daten aus unterschiedlichen Quellen, die durch den Fachbereich abgenommen wurden, besteht die Möglichkeit, die Daten mit einem Qualitätssiegel auszustatten», so Dave Schadock. Auf diese Weise können die Quellen und die Prozesse, die dahinterstehen, als transparent und vertrauenswürdig eingestuft werden. Werden hingegen externe Datenquellen, die nicht vollständig kontrolliert werden können, via APIs beigezogen – etwa aus sozialen Netzwerken, E-Mails, Wetterdaten usw. – sei ein seriöser Review der Daten unerlässlich.

Dasselbe gilt, wenn externe KI-Modelle genutzt werden, deren Trainingsdaten aus unbekannten Quellen stammen. «KI-Modelle sollte man kontrolliert nutzen und die Resultate mit Expertise interpretieren», sagt Dave Schadock. Die Richtigkeit der KI-Ergebnisse werde noch immer von vielen Benutzenden überschätzt. So bedürfen etwa ChatGPT oder andere Anwendungen mit Large-Language-Modellen (LLM) zumindest heute noch immer ein Review. «Sie sind lediglich Co-Piloten, die einer gewissen Kontrolle bedürfen – und keineswegs Autopiloten, die man völlig selbstständig arbeiten lassen kann. Man muss stets mitdenken und die Resultate interpretieren und im unternehmensweiten Gesamtkontext einordnen.»

Das Ergebnis könne immer nur so gut sein wie die Daten selbst, führt Ioannis Theocharis aus. Eine abschliessende Qualitätskontrolle oder ein entsprechendes Qualitätssiegel seien unerlässlich. Schliesslich besteht stets die Gefahr, dass bei Analysen unzureichende oder unvollständige Datenbestände zugrunde liegen, welche die Ergebnisse verfälschen. «Manche Kunden wünschen sich eine Technologie, die unbrauchbare Daten auf Knopfdruck aufbereiten und deren Qualität erhöhen kann – dass sie also aus Datenmüll vertrauenswürdige Daten macht.» Leider sei man weit davon entfernt und es bedürfe weiterhin einer selektiven Auswahl und professionellen Datenaufbereitung, um vertrauenswürdige Analysen auf einer guten Datenbasis zu ermöglichen.

ReThink AI-Workshop

Let’s ReThink – Transformation heisst Vertrauen. Auch in AI-Technologien und AI-Methoden. Im ReThink AI-Workshop mit unseren Expert*innen erarbeiten Sie individuelle AI-Use-Cases und entdecken, welches Potenzial in künstlicher Intelligenz für Ihr Unternehmen steckt. 

Jetzt lesen