Interview mit Robert Kierse

"Es geht nicht um die Spracherkennung alleine"

30.01.2009 von Hartmut  Wiehr
Für den Radiologen Robert Kierse vom Institut für Röntgendiagnostik und Nuklearmedizin am Klinikum Neuperlach, Städtisches Klinikum München GmbH, ist die Spracherkennung mehr als nur ein Weg der Prozessoptimierung. Im Gespräch mit HealthTechWire erläutert er, wie bei nahtloser Integration in die RIS/PACS-Umgebung auch die Patientensicherheit verbessert werden kann.

Herr Kierse, das Institut für Röntgendiagnostik am Klinikum Neuperlach der Städtischen Kliniken München hat im Januar 2007 Spracherkennung eingeführt. Was war die Motivation für diesen Schritt?

Robert Kierse: Die Radiologien der Städtischen Kliniken München beschäftigen rund achtzig Radiologen, die an vier Standorten etwa 360.000 Untersuchungen im Jahr durchführen und befunden. Ich kann vor allem für das Klinikum Neuperlach sprechen, aber an den anderen Standorten dürfte vieles ähnlich gewesen sein: Die Durchlaufzeiten der Dokumente waren einfach nicht befriedigend. Es hat vorher etwa ein bis zwei Tage gedauert, bis der anfordernde Kliniker den vom Radiologen freigegebenen Befund in den Händen gehalten hatte. Das war zu lang. Hinzu kam, dass wir im Jahr 2006 in der Situation waren, ohnehin ein neues RIS/PACS anschaffen zu müssen. Die Spracherkennung haben wir dann als Teil eines Pakets verhandelt, was finanziell sehr günstig für uns war.

Robert Kierse vom Institut für Röntgendiagnostik und Nuklearmedizin am Klinikum Neuperlach, Städtisches Klinikum München GmbH.

Wie haben sich die Prozesse durch Einführung der Spracherkennung verändert?

Robert Kierse: Wir sind sehr viel schneller geworden. Die Befunde erreichen den Kliniker jetzt relativ rasch nach der Untersuchung. Der ganze Prozess der Dokumentenerstellung mit Diktat auf Band, Transkription im Schreibbüro, Korrektur etc. konnte von sieben Schritten auf nur drei Schritte reduziert werden. Heute ruft der Radiologe die Spracherkennung SpeechMagic im RIS auf, diktiert den Befund und gibt ihn frei, fertig. Lediglich bei Assistenzärzten ist noch eine Extraschleife zum Facharzt nötig.

War die Akzeptanz der Ärzte von Anfang an hoch?

Robert Kierse: Wir haben uns für eine sanfte Einführung der Spracherkennung entschieden und damit gute Erfahrungen gemacht. In den ersten Wochen stand den Nutzern ausschließlich die Funktion des digitalen Diktats zur Verfügung, bei dem der diktierte Text wie gehabt von einer Sekretärin oder Schreibkraft eingegeben wurde. Diese Phase haben wir eingefügt, damit sich das Personal an das digitale Diktiergerät und die neue Nutzeroberfläche gewöhnen konnte. Nach etwa anderthalb Monaten haben wir dann die Offline-Spracherkennung freigeschaltet, bei der die Korrekturen durch das Schreibbüro gemacht werden. Noch einmal sechs Wochen später kam die Online-Spracherkennung hinzu, für die keine Schreibkraft mehr nötig ist.

Wurden die Ärzte zum Umstieg gezwungen?

Robert Kierse: Nein, wir haben keinerlei Druck ausgeübt. Es war eher so, dass in einer Art evolutionärem Prozess immer mehr Kollegen die Korrekturen selbst gemacht haben. Heute werden bei uns in Neuperlach 90 Prozent aller radiologischen Dokumente mit Online-Spracherkennung erstellt, die übrigen zehn Prozent mit Offline-Spracherkennung. Entsprechend konnten wir die Zahl der Schreibkräfte von vier auf eine reduzieren, sozialverträglich natürlich, also ohne Entlassungen.

Aus Ihrer Sicht hat die Einführung der Spracherkennung auch die Patientensicherheit verbessert. Wie können wir uns das vorstellen?

Robert Kierse: Dabei geht es nicht um die Spracherkennung alleine, sondern um die Installation eines integrierten Systems aus RIS, PACS und Spracherkennung, wie wir das in München realisiert haben. Bisher war es ja so, dass Befund und Bild voneinander getrennt waren. Wenn wir einen Befund diktiert haben, dann hat das Sekretariat diesen Befund der Person zugeordnet, die wir auf dem Band angegeben hatten. Wenn es nun zeitnah Patienten mit gleichen Namen - z.B. Huber Hans - gab - und das kommt bei der Menge der Diktate schon einmal vor - dann konnte es zu Verwechslungen kommen, wenn die Schreibkraft den Befund beim falschen Patienten eingab. Aufgrund der fehlenden Kopplung von Bild und dazugehörigem Befund war es dann sehr leicht möglich, dass auch im Freigabeprozess der Fehler nicht mehr erkannt wurde. Die Konsequenz: Der Patient hatte künftig einen falschen Befund in seiner Krankengeschichte.

Das kommt jetzt nicht mehr vor?

Robert Kiese: Nein. Denn wenn wir den Befund per Spracherkennung diktieren, dann wird er direkt an das digitale Bild drangehängt, und er ist dann auch nicht mehr vom Bild zu trennen. Bild, Befund und gegebenenfalls abrechnungsrelevante Informationen sind bei einem integrierten digitalen Befundungssystem eine Einheit. Falsch zugeordnete Befunde gibt es nicht mehr. Und das verbessert zwangsläufig die Patientensicherheit, weil behandelnde Kliniker nicht mehr durch falsche Befunde in die Irre geführt werden können.

Bei ihren vier Standorten arbeiten Sie ja mit einem serverbasierten System, sowohl für die Spracherkennung als auch für das PACS. Funktioniert das gut?

Robert Kierse: Das funktioniert gut. Die Standorte sind nach Art einer Ringtopographie mit 3-Gigabit-Ethernet-Leitungen verbunden, die in beide Richtungen leiten. Das heißt: Wenn eine Leitung ausfällt, geht es immer noch anders herum. Die zwei gespiegelten Server stehen an den Kliniken Schwabing und Bogenhausen. Hier gibt es dann noch eine Extraleitung für den Datenabgleich. Die Verfügbarkeit liegt bei über 97 Prozent. Das geht in Ordnung. Für die Spracherkennung ist der vergleichsweise große Nutzerkreis auch kein Nachteil: Wir haben uns nicht für personenbezogene Lizenzen, sondern für eine redundante Anzahl von Concurrent-User-Lizenzen - auch wegen vieler Teilzeitstellen in unserer Abteilung - entschieden. Die können den vier Standorten in Echtzeit entsprechend dem aktuellen Bedarf zugeordnet werden.


Dieses Interview wurde uns zur Verfügung gestellt von HealthTechWire.