Benchmarking bei Roche Diagnostics

Lackmus-Test für Suchmaschinen

06.06.2005 von Rolf Roewekamp
Roche Diagnostics hat neun Suchmaschinen nach 18 Kriterien getestet. Die Technik von High-End-Suchmaschinen bieten Unternehmen inzwischen mehr, als diese nutzen können. Viel entscheidender ist, dass Mitarbeiter ausreichend Metadaten vergeben.

Simple Lackmusstreifen reichten Laboranten früher, um Flüssigkeiten zu prüfen: Säuren färbten sie rot und Basen blau. Das Datenvolumen stieg in der Humandiagnostik jedoch in den vergangenen beiden Jahrzehnten exponenziell. Schon in Kürze werden die Analyseautomaten des Medizintechnikunternehmens Roche Diagnostics nicht nur klassische Tests abarbeitern, sondern auch Eiweißmoleküle mit Verfahren der molekularen Biochemie bestimmen: Die Menge an Informationen explodiert damit noch einmal. Dies gilt nicht nur für Labordaten, sondern auch für viele andere Informationen, die Roche-Mitarbeiter für das tägliche effiziente Arbeiten benötigen.

So setzt das Penzberger Unternehmen seit Mitte der 90er-Jahre eine professionelle Suchmaschine ein, um Daten schneller zu finden. Ende 2003 kündigte jedoch Anbieter Verity an, sein Produkt Portal One nicht mehr zu unterstützen. "Mit dem Risiko konnten wir nur eine gewisse Zeit leben", erläutert Horst Baumgarten, Leiter der Abteilung Informationsmanagement im Geschäftsbereich Centralized Diagnostics bei Roche Diagnostics.

Um eine passende Alternative zu finden, initiierte er im ersten Halbjahr 2004 ein Suchmaschinen-Benchmarking. Diesen Vergleich führte er mit zwei weiteren Unternehmen durch, die ebenfalls Mitglieder in dem von ihm vor drei Jahren ins Leben gerufenen Verity-Anwenderkreises sind. "Mit dem Benchmarking habe ich mich erheblich wohler gefühlt, als wenn wir einfach nur die nächste Version gekauft hätten. So war es professioneller", resümiert Baumgarten.

Die Auswahl der getesteten Suchmaschinen beruhte auf eigenen Erfahrungen, Marktanalysen sowie Diskussionen mit Kollegen des Roche-Konzerns. Lösungen mit ähnlich hohen Lizenzkosten wie die der alten Verity-Version schieden von vornherein aus. Die Gesamtkosten für Lizenzen und zusätzliche Investitionen wären zu hoch gewesen. "Der Umstellungsaufwand für eine Suchmaschine eines neuen Anbieters ist erheblich. Sie benötigt immer eine neue Infrastruktur und sehr viele Schnittstellen müssen neu programmiert werden", begründet Baumgarten.

Letztlich fiel die Wahl auf neun Suchmaschinen, die nach 18 Kriterien getestet wurden (siehe Kasten auf Seite 34). Innerhalb dieser Kriterien legte Baumgarten besonderen Wert auf Indexierungsmöglichkeiten, Suchgeschwindigkeit, einfache Benutzerverwaltung sowie die Tool-Verwaltung. "Das Verwaltungs-Tool ist für uns wichtig, weil wir damit die Suche steuern und administrieren können", erklärt Baumgarten. Dazu zählt besonders, Anwender zu authentifizieren. "Auf spezielle Dokumente dürfen nur bestimmte Mitarbeiter und Abteilungen zugreifen. Dafür muss die Suchmaschine mit Active Directories und Nutzverwaltungs-Tools zusammenarbeiten können." Auch musste die Software mehr können, als alle Dokumente zu durchforsten und Ergebnisse blind aufzulisten. "Wir suchten keinen einfachen Crawler, der Dateien anzeigt, die wir gar nicht mehr finden wollen", grenzt Baumgarten ein.

Einen besonderen Stellenwert innerhalb der 18 Testkriterien maß Baumgarten auch der Fähigkeit des Tools zu, Inhalte dezentral indexieren zu können. Denn die alte Suchmaschine ermöglichte lediglich das zentrale Indexieren: Bei der Lösung schaut Baumgarten von Penzberg aus auf alle Server in den anderen Standorten wie Mannheim oder Indianapolis und erstellt einen zentralen Index. Startet ein Kollege aus Rio eine Suche, wird die Anfrage nach Penzberg geleitet und beantwortet. Dafür muss die ganze Information über das Netz nach Penzberg laufen, was viel Netztraffic erzeugt und somit Zeit und Geld kostet. "Bei so einer Lösung muss man sich genau überlegen, wo der Server stehen soll, damit möglichst wenig über das Netz läuft und alle Mitarbeiter schnell Antworten erhalten", so Baumgarten. Die neue Lösung musste also zumindest regional indexieren können.

Der Testsieger

Letztlich entsprach die Suchmaschine K2 von Verity am meisten den Ansprüchen von Roche Diagnostics. "Jetzt sind die Indizes auf verschiedenen Servern verteilt. Es gibt aber weiterhin einen Meta-Index, der alle Indizes zusammenfasst", sagt Baumgarten. Er warnt jedoch vor einer Verallgemeinerung der Ergebnisse: "Es gibt nicht die eine passende Lösung für alle Unternehmen. Das hängt immer von den speziellen Anforderungen und Bedingungen in jeder Firma ab."

Eine wesentliche Erkenntnis des Tests war, dass die Technik der Suchmaschinen mittlerweile ausgereift ist. "Suchmaschinen sind an einem Punkt angelangt, wo sie nicht mehr limitiert sind. Ich musste schon auswählen, welche Features wir überhaupt einsetzen wollen", so Baumgarten.

Eines dieser Features ist die Metasuchmaschine. Denn es wäre zu aufwändig, bereits integrierte Spezialsuchmaschinen in bestehenden Anwendungen in eine neue Suchmaschine zu überführen. Künftig will Roche mehrere Suchmaschinen an den Federator anbinden. Allerdings will Baumgarten nicht das SAPSystem an den Federator anschließen. "Theoretisch wäre das möglich, aber wir müssen einen vernünftigen Weg finden zwischen Aufwand und Nutzen. Eine SAP-Anbindung wäre zu komplex."

Doch ob mit oder ohne Metasuche, die Qualität der Treffer hängt viel entscheidender davon ab, dass Mitarbeiter die Dokumente mit möglichst vielen Meta-Informationen versehen. Denn nur so findet ein Mitarbeiter unter 500 Treffern die drei gesuchten Dokumente. Baumgarten: "Unser Konzept ist es deshalb, nur registrierten Inhalt zu durchsuchen."

Deswegen müssen alle Site-Verantwortlichen ihre Homepages anmelden, bevor sie durchsucht werden. "Wir registrieren nur Homepages, wenn sie unseren Konventionen entsprechen. Dann tragen wir sie in die URL-Datenbank ein", erklärt Baumgarten. Jede Suche beginnt in der Internet-Adress-Datenbank, die auch Informationen darüber enthält, welche Datenbanken, Inhalte oder Dokumenten-Management-Systeme hinter einer Site stehen. Heute durchsucht Roche Diagnostics im Intranet weit über 1000 Homepages und Anwendungen mit mehr als einer dreiviertel Million dahinter liegenden Dokumenten.

Theoretisch ließe sich noch intelligenter suchen, so dass ein Mitarbeiter mit nur einem Stichwort sofort seine gesuchten Informationen findet. Allerdings müssten dazu möglichst viele Mitarbeiter möglichst viele Metainformationen vergeben, manchmal auch nicht standardisierte Metadaten. "Ab einem bestimmten Punkt schlägt diese Pflicht zum Ausfüllen von Metatags in Unproduktivität um und lähmt das Unternehmen", so Baumgarten. "Ein hundertprozentig wasserdichtes System wird es nie geben. Der Kontrollaufwand wäre gigantisch und nicht sinnvoll."

Um eine Basis an Metadaten im Unternehmen zu gewährleisten, trifft er sich jährlich mit den weltweiten Content-Owern. Dort beraten sie, wie man Meta-Tags gut ausfüllt und wie sie aussehen müssen, damit die Mitarbeiter die richtigen Dokumente schneller finden.

Reizthema Taxonomien

Auf diesen Treffen definieren die Teilnehmer auch, nach welchen Regeln Dokumente klassifiziert werden. Diese so genannten Taxonomien sind ein stark diskutiertes Reizthema. "Unternehmen wie Roche haben ja - anders als Anbieter wie Google behaupten - schon sehr viele formalisierte Regeln", erklärt Baumgarten. "Der Input ist seit etlichen Jahren sehr standardisiert."

Von automatisierten Taxonomien, wie sie viele Hersteller anpreisen, hält er wenig. Denn ihre Grenzen treten schnell bei dynamisch erzeugten Daten auf: "Es macht den Anwender wahnsinnig, wenn er nicht jeden Tag auf dem Bildschirm dieselben Felder auf der Website findet, weil das automatische Tool das verändert hat." Deswegen sollten Unternehmen die ersten zwei bis drei Ebenen manuell festlegen, rät er. Darunter könnten dann automatische Tools laufen.

Baumgarten wird sich in diesem Jahr wenig um Taxonomien kümmern können. Zwar liegt das Benchmarking ein Jahr zurück, doch die Softwareeinführung begann erst im März: Der Umstieg auf eine neue Version einer Intranet-Suchmaschine ist zu aufwändig, als dass man das in kurzer Zeit erledigen könnte.

Einen Business Case hat er nicht aufgestellt, weil das nicht mit einem vernünftigen Aufwand zu machen sei. Den Einsatz einer Suchmaschine muss er auch nicht mehr rechtfertigen - anders als noch vor einigen Jahren. "Bis Ende der 90er-Jahre hatte die Suche von Informationen in vielen Unternehmen keinen hohen Stellenwert. Der Aufbau von Intranets und die Einführung von Content- und Kundenbeziehungs-Management-Systemen schluckte sehr viele Ressourcen", so Baumgarten. "Heute sind Unternehmen ohne Intranet nicht mehr arbeitsfähig. Inzwischen gilt es als selbstverständlich, dass alle Mitarbeiter darin schnell und gut suchen können. Und leistungsfähige Suchmaschinen gehören einfach dazu."