CIO von Roche Diagnostics

"Big Data - nehme ich nicht mehr in den Mund!"

14.10.2013 von Horst Ellermann
CIO Werner Boeing von Roche Diagnostics mag das Buzzword nicht, weil es ihm zu unpräzise ist. Auch die Professoren Hubert Österle und Boris Otto sprechen lieber von "Corporate Data Quality Management". Tipps, Best Practices und ein Fragenkatalog, wie aus Daten Informationen werden - und neue Geschäftsmodelle.
Werner Boeing, seit 2011 CIO bei Roche Diagnostics
Foto: Roche Diagnostics International Ltd

Ausgerechnet Werner Boeing: Der CIO, der sein eigenes Unternehmen Roche Diagnostics als Datenfabrik bezeichnet, will mit Big Data als Schlagwort nichts zu tun haben: "Wir müssen nicht immer wieder eine neue Sau durchs Dorf treiben", meint Boeing zu dem Begriff, der gerade so mühelos die Veranstaltungssäle füllt.

Im Juni musste der Bitkom auf seiner "Big Data"-Konferenz in Bonn Teilnahmewillige ausschließen. Am 24. und 25. September lud die Computerwoche zu einer gleichnamigen Konferenz ein. Mangel an Teilnehmern herrscht nirgends. Mangel an richtigen Antworten auf die Datenflut schon.

Vielleicht auch an richtigen Fragen. Professor Hubert Österle von der Universität Sankt Gallen und sein ehemaliger Projektleiter Boris Otto, seit dem 1. September Professor an der Technischen Universität Dortmund, haben sich deshalb die Mühe gemacht, in einem Whitepaper alle Fragen aufzulisten, die für ein "Corporate Data Quality Management" (CDQM) zu beantworten sind. Sperriges Wort. Sozusagen Österles akademische Antwort auf Big Data.

Der Professor erklärt, worum es ihm dabei eigentlich geht: "Es gab mal eine Zeit, da war Databank-Design das Nonplusultra. Die Firmen haben in den 1980er-Jahren gedacht, wenn sie das hinbekommen, dann ist alles erledigt." Aber schon damals sei das Problem gewesen, dass alle auf die Prozesse geguckt haben und nicht mehr auf die Daten beziehungsweise deren Qualität. "Jetzt erleben wir ein Revival der Daten, weil so viele hinzugekommen sind", freut sich Österle. Ein Jahr vor seiner Emeritierung bekommt sein Lieblingsthema CDQM noch einen richtigen Schub.

"Daten-Unternehmen Roche"

Zum Beispiel bei Roche Diagnostics: "Wir waren schon immer ein Datenunternehmen - man hat es nur nicht gesehen", sagt CIO Boeing, der 2009 zum Unternehmen kam und seit 2011 in seiner derzeitigen Rolle arbeitet. In der Tat gewinnt der Besucher zunächst einen anderen Eindruck, wenn er die Produktionsstätten von Roche Diagnostics, der kleinen Schwester von Roche Pharma, besucht. In Mannheim, Penzberg bei München, Indianapolis oder dem schweizerischen Rotkreuz - um nur die größten Niederlassungen zu nennen - bauen die Diagnostiker richtige Geräte zum Anfassen.

Roche ist mit 20 Prozent Marktanteil nach eigenen Angaben der größte Anbieter von In-vitro-Diagnostik. In vitro heißt "im Glas". Überall auf der Welt, wo Laboranten Blut oder Gene untersuchen, schütteln und rühren sie gerne mit Geräten von Roche - genauso gerne wie Diabetiker sich mit echter Hardware von Roche piksen.

Wie kann Werner Boeing da von einer Datenfabrik sprechen? "Wir generieren Datenpunkte, in der Forschung, um Therapien zu entwickeln, und im klinischen Alltag, um die Auswahl optimaler Therapien für Patienten zu ermöglichen und deren Wirksamkeit sicherzustellen", erklärt der CIO. Auf mehr als acht Milliarden Datenpunkte schätzt er das Volumen, das Patienten, Krankenhäuser und Labore jedes Jahr mit Roche-Geräten erzeugen.

Die Unternehmensdaten der Roche Diagnostics:

Hauptsitz

Basel

Umsatz

8,298 Milliarden Euro

Mitarbeiter

28.517

IT-Mitarbeiter

800 (bei Roche insgesamt: 3000)

35 Petabyte - "weiter wachsend"

Professor Hubert Österle von der Uni St. Gallen.
Foto: Universität St. Gallen

Ganz genau kennt niemand die Zahl, selbst bei Roche nicht, denn nicht alle Beteiligten spielen ihre anonymisierten Blutzucker-, Lipid-, Vitamin- und Blutgaswerte zurück an das Unternehmen. Messwerte von HIV-,Hepatitis- oder Krebspatienten genießen obendrein besondere Vertraulichkeit. Trotzdem hat sich schon jetzt ein solcher Datenberg aufgetürmt, dass selbst die NSA ein Weilchen zur Auswertung bräuchte. Auf 35 Petabyte schätzt Boeing die derzeitige Größe der internen elektronischen Speichermöglichkeiten. Tendenz: "Weiter wachsend".

Ein ideales Forschungsfeld für Hubert Österle und seine Kollegen vom Kompetenzzentrum "Corporate Data Quality": Sie untersuchen dort Methoden und Referenzarchitekturen in großen Anwenderunternehmen (siehe Kasten unten oder Uni St. Gallen - Best Practices aus dem Kompetenzzentrum "Corporate Data Quality").

Und am allerliebsten verweisen sie auf Best Practices, bei denen neue Geschäftsmodelle durch sauber gepflegte Daten entstehen. Da passt Werner Boeing gerade super ins Konzept. "Roche versucht, den Versicherungen eine Gesundung des Patienten zu verkaufen", erklärt Österle. Schließlich gehe es nicht darum, einfach nur Daten zu sammeln. Vom Messen sei noch kein Mensch gesund geworden.

Uni St. Gallen: Best Practices aus dem Kompetenzzentrum "Corporate Data Quality"

Professor Hubert Österle (Foto) forscht seit mehr als 30 Jahren nach den richtigen Referenzarchitekturen für Big Data in großen Anwenderunternehmen. Im Folgenden sind einige namhafte Beispiele genannt. Weitere Referenzen unter: http://cdq.iwi.unisg.ch

Johnson & Johnson (USA)
speichert Artikeldaten der Konsumgütersparte in "Six-Sigma-Qualität".

2008 fing sich Johnson & Johnson harsche Kritik durch einen seiner größten Kunden ein: Ein Einzelhandelskonzern bemängelte Angaben zu Gewicht und Abmessungen von Artikeln. Weniger als 40 Prozent sämtlicher Artikel lagen innerhalb der erlaubten fünfprozentigen Fehlertoleranz. Kundenrechnungen waren falsch, Lkws warteten an der Warenannahme, ohne dass der Wareneingang gebucht werden konnte. Infolgedessen zentralisierte Johnson & Johnson das Daten-Management, schuf klare Verantwortlichkeiten für den Umgang mit Daten und automatisierte die Neuanlage von Artikeln mithilfe eines Workflow-Management-Systems, das die Qualität der Daten bereits bei der Erfassung sicherstellt. Im zweiten Schritt wurden die Bestandsdaten bereinigt. Dazu konnten die Geschäftsregeln wiederverwendet werden, die bereits bei der Neuanlage von Artikeln genutzt wurden. Heute haben die Artikeldaten von Johnson & Johnson ein Six-Sigma-Niveau erreicht, das heißt, es treten praktisch keine fehlerhaften
Daten mehr auf.

Bosch (Deutschland)
steigert die "First-time-Right-Quote" mit HANA.

Als Großunternehmen besitzt Bosch Millionen von Daten zu Produkten, Kunden, Lieferanten, Mitarbeitern und Rohmaterialien. Und täglich kommen neue hinzu. Das Unternehmen nutzt eine gemeinsame Datenqualitätsplattform auf Basis von SAP HANA. Bosch stellt mit der In-Memory-Technologie sicher, dass die Datenbestände schnell und kontinuierlich bereinigt werden. Duplikate und Fehleingaben werden vermieden, die "First-time-Right"-Quote steigt. Das spart dem Unternehmen mühselige Aufräumarbeiten in den Datenbeständen, und die Mitarbeiter können sich auf das Wesentliche konzentrieren.

Migros (Schweiz)
fragt seine Kunden, welche Produkte sie haben möchten.

Ein Ziel im größten Einzelhandelsunternehmen der Schweiz ist die intensive Interaktion mit dem Konsumenten. Dazu lancierte Migros die Internet-Plattform Migipedia, auf denen umfangreiche Angaben zu sämtlichen Produkten von Migros enthalten sind. Beispielsweise sind bei Lebensmitteln Angaben zu Inhaltsstoffen, Allergieinformationen und "Fairtrade"-Daten verfügbar. Die Kunden haben auf Migipedia zum Beispiel die Möglichkeit, Produkte zu bewerten und darüber zu diskutieren. Das Feedback der Kunden lässt Migros direkt in seine Sortimentsplanung einfließen. Beispielsweise wurde die Verpackung einer erfolgreichen Eisteesorte, die ursprünglich lediglich im TetraPak verfügbar war, um eine doppelt so teure PET-Variante ergänzt, nachdem man die Präferenzen der Konsumenten auf Migipedia erfragt hatte. Voraussetzung für die Akzeptanz von Migipedia sind aktuelle, vollständige und fehlerfreie Produktdaten. Zudem bietet Migros neben dem klassischen stationären Handel den Online-Kanal "LeShop" an. Die Befürchtung der Kanalkannibalisierung erwies sich als unbegründet. Denn insgesamt ließ sich der Umsatz im Stammkundensegment um 30 Prozent steigern. Voraussetzung dafür sind qualitative Artikeldaten, die in allen Kanälen (beispielsweise LeShop, Supermarkt oder Promotion-Materialien) konsistent sind.

Geberit (Schweiz)
strafft das Produktsortiment durch "Lean Data Management".

Der Anbieter von Sanitärtechnologie konnte vor wenigen Jahren die Komplexität seines stetig wachsenden Produktsortiments kaum noch bewältigen. Neue Produkte wurden in das Sortiment aufgenommen, ohne dass Produkte, die am Markt nicht mehr nachgefragt waren, aussortiert wurden. Daraufhin führte das Unternehmen ein zentrales Anwendungssystem und eine Abteilung ein, die sich um die Optimierung des Verkaufssortiments kümmert. Die Beweislast wurde umgekehrt: Während üblicherweise zu begründen ist, warum Artikel zu deaktivieren sind, nutzte Geberit "Lean Management"-Konzepte und drehte den Spieß um. Produkt-Manager in den einzelnen Ländern mussten begründen, warum ein bestimmtes Produkt im Sortiment verbleiben sollte. Außerdem ermittelte das Unternehmen die Gemeinkosten, die jährlich für die Pflege eines Produktdatensatzes in den verschiedenen Abteilungen des Unternehmens anfallen. Diese betragen durchschnittlich 3000 Schweizer Franken. Weil das aktive Sortiment um zwei Drittel reduziert werden konnte, spart Geberit jährlich Gemeinkosten in zweistelliger Millionenhöhe.

Corning Cable Systems (USA)
bringt Produkte schneller an den Markt durch Data Governance.

Corning Cable Systems versorgt Telekommunikationsanbieter mit Glasfaserkabeln und Kupferproduktlösungen, die kundenindividuell konfiguriert werden müssen. Der Prozess der Neuanlage von Produkten erwies sich als zu langsam und dauerte im Schnitt zwei Wochen. Hauptgrund war die Vielzahl der verschiedenen Rollen im Unternehmen, die bei der Neuanlage zu involvieren sind, und das Fehlen eines durchgängigen "End to End"-Prozesses. Durch Einführung von Data Governance, also eindeutige Verantwortlichkeiten für Produktdaten, klare Definition des Anlageprozesses sowie Teilautomatisierung durch ein Workflow-Management-System, konnte die "Time-to-Market" neuer Produkte um mehr als 80 Prozent auf zwei Tage gesenkt werden.

Blut gerinnt, Daten fließen

Als konkretes Beispiel führt Boeing die "Koagulation" an: Wer die Gerinnung seines Blutes senkt - etwa nach einer Thrombose -, macht dies am liebsten daheim, ohne dauernd den Arzt zu konsultieren. Roche baut für solche Patienten ein Gerät zur Messung des Gerinnungsfaktors und verschickt die Testergebnisse über das Internet an die Ärzte. Letztere zeigten sich jedoch gar nicht begeistert über diese Art der Ferndiagnose, denn die Abrechnung einer solchen Analyse hat für viel Diskussionen zwischen Ärzten und Versicherern gesorgt.

Boris Otto, Professor an der Technischen Universität Dortmund: "Wer versucht, mit seinem Tool-Set für die Nukleusdaten auf die großen Daten zuzugehen, wird scheitern."
Foto: TU Dortmund

Daraus ist für Roche inzwischen ein neues Geschäftsmodell geworden: Die Diagnostiker beziehen nun auch die Versicherer ein, sodass der Finanzfluss geregelt ist. Der Patient kann zu Hause bleiben, der Arzt macht sich keine Sorge um die Abrechnung, und Roche ist um einen Service reicher.

Die Chancen einer solchen Datenverarbeitung lassen sich beliebig weiterspinnen. Was vom Patienten zum Arzt und zum Versicherer fließt, sollte auch Wissenschaftler und Gesetzgeber erreichen. Der Erfolg von Medikamenten und Heilungsmethoden ließe sich so viel genauer ermitteln. Wechselwirkungen kämen viel schneller ans Licht.

Forscher könnten Zusammenhänge ermitteln, die selbst in großen Feldversuchen unentdeckt bleiben. Wie lange sollte ein 57 Jahre alter Mann mit 20 Kilo Übergewicht nach einem Infarkt blutverdünnende Mittel nehmen? Wie viel die 87 Jahre alte Diabetikerin? "Daten von Kunden und Produkten gehören zusammen", findet Boeing.

Die drei Arten von Daten

Derlei Informationen lassen sich jedoch nicht auf den etablierten Wegen zusammenbringen, wie aus Finance and Controlling bekannt. Boris Otto, der gerade seine Professur in Dortmund antritt, unterscheidet drei Datenarten, die unterschiedlich aufbereitet werden wollen:

Otto gebraucht die Metapher der Zwiebel, um sein Datenmodell zu erklären: "Für die ersten Zwiebelringe in der Mitte haben wir ein sehr erprobtes Tool-Set. Da ist SAP ziemlich gut." Nur eben für die äußeren Ringe, also für alles, was gerade unter dem Titel Big Data läuft, fehlen geeignete Verfahren: "Wer versucht, mit seinem Tool-Set für die Nukleusdaten auf die großen Daten zuzugehen, wird scheitern", bilanziert Otto die bisherige Forschung.

"Das Ergebnis ist eine unglaubliche Unsicherheit in den Firmen", ergänzt Österle. Das Marketing sieht zwar Riesenchancen im äußeren Zwiebelring, ebenso die Produktion mit ihren Maschine-zu-Maschine-Daten. Beiden Abteilungen fehlt es jedoch an Analysten, die Einblick in alle Zwiebelringe haben. Die Daten-Freaks aus Compliance und Reporting fühlen sich nicht zuständig. "Und die IT-ler ziehen sich auf ihre Domänen zurück: DB2 oder Oracle", sagt Österle.

Fragenkatalog zu Big Data

Otto und Österle haben deshalb einen Fragenkatalog zu Big Data entwickelt, der dafür sorgt, dass das Thema nicht in der IT-Ecke versauert. Er lässt sich auf sechs Fragen reduzieren. Frage 1 zielt zunächst auf den Treiber des Themas ab:

1. Haben Sie einen Sponsor im Vorstand?

Was jedem Thema dient, hilft natürlich auch Big Data, wobei Boeing mit der ersten These der Uni St. Gallen gar nicht so viel anfangen kann: "Man darf sich als IT-ler nicht zu schade sein, ein Problem selbst zu erkennen und dann anzugehen", sagt der CIO, der Projektbefürworter auf der zweiten und dritten Führungsebene für ebenso wichtig hält wie im Vorstand.

2. Messen Sie regelmäßig die Qualität Ihrer Daten?

Bei Stammdaten lässt sich das anhand einfacher Regeln überprüfen: Wo ist das Nettogewicht höher als das Bruttogewicht? Wo hat eine Adresse nur eine vierstellige Postleitzahl? Johnson & Johnson habe 200 solcher Regeln aufgestellt und damit seine Stammdaten auf Six-Sigma-Qualität gehoben, erzählt Otto. "Eigentlich müssten diese Regeln in den einzelnen Branchen ziemlich gleich sein", ergänzt Oesterle: "Idealerweise sollten wir sie schon in das SAP-System mit einbauen."

3. Haben Sie die richtigen Menschen für Big Data?

"Das müssen keine Heerscharen an Leuten sein", sagt Österle: "Aber die Rollen müssen definiert werden, ohne Bürokratie zu erzeugen." Bei Roche Diagnostics konzentriert sich diese Aufgabe auf einen einzelnen Kopf: Thomas Kaiser, ein Vorgänger von Boris Otto an der Universität Sankt Gallen, guckt von der Architektur auf das Thema. Boeing lobt ihn in höchsten Tönen: "Man braucht einen Gestalter mit Weitblick."

4. Entwickeln Sie die Datenpflege kontinuierlich weiter?

"Intellektuell stimmt Ihnen jeder zu, dass Daten wichtig sind", sagt Boeing: "Aber sie werden trotzdem immer runterpriorisiert." Da es immer dringlichere Dinge gibt, falle das Thema regelmäßig durch. Boeing hat dagegen eine einfache Parole in seiner Abteilung ausgegeben: "Jeder IT-ler ist Master-Data-Manager. Jeder muss sich verantwortlich fühlen. Das kann man nicht wegdelegieren."

5. Sind Datenspeicherung und -distribution geregelt?

"Wenn man in einem Unternehmen fragt, wo der Single Point of Truth liegt, sagt der CIO: im ERP, der Vertriebsleiter: im CRM und der Vertriebsmitarbeiter: draußen, hier auf meinem Handy oder in meinem Karteikasten", erzählt Österle. Und ein wenig frustriert schiebt er nach: "Das tut schon weh, wenn man 30 Jahre die gleiche Frage hört: Wo sollen die Daten gelagert werden, zentral oder dezentral?" Seine Antwort darauf lautet: Es ist eigentlich egal, solange der Fluss der Daten geklärt ist und von allen Beteiligten verstanden wird.

6. Managen Sie die Applikationslandschaft?

Neue Applikationen lassen neue Daten entstehen. In aller Regel fließen diese jedoch nicht in die entsprechenden Datenbanken zurück. Boeing erzählt von mehr als 2000 Applikationen, die er bei seinem Amtsantritt vorgefunden hat: "Unsere Applikationslandschaft ist eher historisch und ohne übergeordneten Bauplan gewachsen. Bei 5000 Schnittstellen haben wir aufgehört zu zählen." Es gab keine holistische Sicht auf die Daten und kaum Master-Data-Management. Nun ist es Zeit, etwas zu ändern, fand Boeing und erinnerte sich deshalb an einen hilfreichen Slogan seines alten Arbeitgebers Mars: "Master Data ist sexy!"

Die sechs oben genannten Fragen sind nur ein Auszug aus dem viel umfangreicheren Fragenkatalog, den Österle und Otto zu den sechs wichtigsten Bereichen von Big Data entwickelt haben. Deutlich wird allerdings schon an diesem Auszug: "Daten sind kein Technikthema", wie Boeing sagt. Mitarbeiter zu finden, die eine ähnliche Leidenschaft für das Thema entwickeln wie der CIO selbst, dürfte trotzdem schwerfallen.

Boeing sagt von sich selbst, er liebe seine Daten. Umso mehr schmerzt ihn die Erkenntnis: "Die meisten Menschen sehen in Daten nur eine große, graue, langweilige Masse".

Event - Best in Big Data

Der Computerwoche-Kongress "Best in Big Data" ging am 24. und 25. September 2013 in Frankfurt in die zweite Runde. In der Commerzbank Arena wurden wegweisende Referenzprojekte präsentiert und ausgezeichnet. Mehr Info unter: www.computerwoche.de