Software-Testverfahren

Qualitätskontrolle per Hand und Excel

29.07.2011 von Thomas Pelkmann
Software ist fehlerhaft - immer. Testverfahren sind dennoch nicht überall üblich, wie eine Studie von Capgemini, Sogeti und HP zeigt. Die Budgets dafür steigen zwar, aber die Teams wachsen nicht mit.

Als im Jahre 2004 die Hartz IV-Reformen starteten, streikten nicht die Arbeitnehmer dieses Landes, sondern die Software, die das Arbeitslosengeld für Langzeitarbeitslose berechnen sollte. Die Anwendung stürzte ab, berechnete Zuschläge falsch und es fehlten Datenfelder für die Eingabe. Außerdem kam es bei der Berechnung der Krankenversicherungsbeiträge zu Rundungsfehlern. Die Liste der Fehler ließe sich fortsetzen.

Acht Jahre vorher, im Jahr 1996, explodierte 30 Sekunden nach dem Start mit der Ariane 5 der Prototyp der ehrgeizigen Weltraumpläne der Europäer. An Bord der Rakete befanden sich vier Satelliten im Wert von umgerechnet rund 350 Millionen Euro. Der Grund des Absturzes: Die Ariane 5 verwendete die gleiche Software wie das Vorgängermodell. Da Nutzlast und Geschwindigkeit der Rakete aber deutlich größer waren, als bei Ariane 4, und deutlich mehr Flugdaten produzierten, brachen die Rechnersysteme zusammen. Letztlich löste aber ein kleiner Programmfehler eine fatale Kettenreaktion aus, an deren Ende der Absturz der Rakete stand.

Das Jahr 2000-Problem schließlich rührt allein von einem Programmfehler her: Weil Speicherplatz damals knapp war, hatte man Jahreszahlen nur zweistellig codiert. Viele Unternehmen fürchteten, dass Systeme abstürzen würden, wenn die "00" nicht nur für das Jahr 1900 stehen, sondern auch für das Jahr 2000. Glücklicherweise blieb die Katastrophe damals aus, aber die Vorsorge kostete die Unternehmen sehr viel Geld.

Programmfehler, das zeigen diese spektakulären Beispiele, sind nichts ungewöhnliches. Im Gegenteil: Sie gehören zu jeder Software dazu. Arved Graf von Stackelberg, der sich bei HP unter anderem um die Qualitätssicherung von Anwendungen kümmert, weiß zwar nicht genau, wie viele Fehler in einem durchschnittlichen Anwendungs-Code stecken. Aber er wagt eine Schätzung des Spitzenwerts: Eine Million Fehler bei 1,5 Millionen Zeilen Code sei durchaus realistisch.

Die Quality Assurance (QA) sollte also bei allen selbst erstellten Programmen oder bei Standardanwendungen, die in die Unternehmens-IT eingepasst wurden, zum normalen Umgang mit Software gehören.

Prinzipiell sehen das auch die Unternehmen so, wie der jährliche Trendbericht von HP, Capgemini sowie Capgemini-Tochter und Anbieter von Software-Tests Sogeti ausweist. Für den Bericht wurden 1.200 CEOs, CFOs, CIOs, IT-Direktoren und Qualitätsbeauftragte in der ganzen Welt befragt. Der World Quality Report 2011 zeigt: Der wirtschaftliche Aufschwung und die immer stärker genutzten Cloud-Dienste rücken die Qualitätssicherung von Applikationen und das Thema Testing wieder stärker in den Fokus der Unternehmen.

Fast alle Unternehmen sehen Konsolidierungsbedarf

Eine satte Mehrheit von 85 Prozent der befragten Unternehmen schätzen ihre Applikationslandschaften als konsolidierungsbedürftig ein und wollen ihre geschäftskritischen Anwendungen modernisieren, um die Effizienz zu steigern. Folgerichtig planen 42 Prozent der Unternehmen das Budget für die Qualitätssicherung von Software und Testing zu erhöhen.

Das scheint auch dringend geboten, denn in Krisenzeiten haben viele Unternehmen genau diese Ausgaben eingefroren oder reduziert: Mehr als die Hälfte der befragten Unternehmen (58 Prozent) gaben an, dass ihr QA-Budget stagniert oder gar niedriger ist als vor der Krise. In der Zahl enthalten sind 13 Prozent, die überhaupt kein QA-Budget haben. Nur bei fünf Prozent der Befragten ist das Budget gestiegen.

Zusätzlich zur unzulänglichen Budgetlage sorgen wachsende Anforderungen durch neue Technologien und erhöhte Sicherheitsansprüche für zusätzlichen Druck auf die Qualitätssicherung. Die Budgets für die Teams, stellt der Report fest, wachsen aber nicht entsprechend.

Zusätzliche Aufwendungen und Anstrengungen machen die Studienautoren zudem weniger in den traditionell starken Märkten wie Nordamerika und Europa aus, sondern in Schwellenländern wie China und Brasilien. Das mag damit zu tun haben, dass Qualitätskontrollen dort in der Vergangenheit kaum eine Rolle gespielt haben. Es steht aber heute auch für das dynamische Wachstum dieser Märkte, denn zugleich wird hier auch mehr Geld in neue Technologien wie das Cloud Computing gesteckt.

Mehr als ein Drittel aller chinesischen Unternehmen (37 Prozent) planen, im kommenden Jahr zwischen 11 und 25 Prozent ihrer Anwendungen in die Cloud zu migrieren. Weitere 40 Prozent bereiten solche Schritte derzeit vor. Zum Vergleich: "Die deutschen Unternehmen", heißt es in der Studie, "sind bei der Nutzung von Cloud Computing zurückhaltender als andere Studienteilnehmer".

Deutsche bei automatisierten Testverfahren vorne

Dafür sind die Deutschen vielen anderen Ländern aber beim Einsatz automatisierter Testverfahren voraus. Mittlerweile würden rund 80 Prozent der Unternehmen systematisch Qualitätsdaten erheben - immerhin. In jedem fünften Betrieb, stellt der Report fest, geschieht die Erhebung aber manuell und die Präsentation der Erkenntnisse über Excel. Ein weiteres Drittel nutzt zwar ebenfalls Excel, führt aber die quantitativen Erhebungen immerhin automatisiert durch. Und nur 24 Prozent nutzen für diese Tätigkeit professionelle BI-Tools, heißt es in der Studie.

In Deutschland sind automatisierte Testverfahren deutlich stärker repräsentiert, als in anderen Ländern: 90 Prozent der Studienteilnehmer hierzulande setzen in mehr als der Hälfte der Fälle auf eine automatische Testings. Dieser Wert liegt um 13 Prozent höher als der Durchschnitt.

Qualitätskontrolle und -sicherung ist - wenngleich in unterschiedlichem Maße - immer auch ein Thema für Outsourcing-Strategien. Größere Unternehmen scheinen sich dabei eher damit anfreunden zu können, ihre QA-Ressourcen irgendwo außerhalb ihrer Firmenmauern zu halten. Dabei fordern China und Osteuropa in zunehmendem Maße den bisher sehr beliebten Standort Indien heraus. Für Firmen aus Nordamerika ist Indien nach wie vor Favorit (18 Prozent), allerdings holt China hier stark auf (12 Prozent). Westeuropäische Unternehmen orientieren sich dagegen eher nach Osteuropa (12 Prozent), auf chinesischen Outsourcing-Dienstleister setzen bisher nur sieben Prozent.

Im Vergleich zu anderen Ländern arbeiten die befragten deutschen Unternehmen dagegen mit einem hohen Anteil an Testern an den eigenen Standorten (mehr als 40 Prozent). Fast die Hälfte (47 Prozent) haben bis zu einem Viertel ihrer Tester in Nearshore- oder Offshore-Standorten angesiedelt, nur 12 Prozent haben zwischen einem Viertel und der Hälfte ihrer Testressourcen ganz auswärts.

Deutschland setzt bei QA eher auf Near- als auf Offshore

Mehr als drei Viertel seiner Testressourcen hat kein einziges der deutschen Unternehmen dort. Im Durchschnitt werden in allen anderen untersuchten Ländern mehr als doppelt so viele Tester im Ausland eingesetzt. Diese Unterschiede ergeben sich teilweise dadurch, heißt es in der Studie, dass Deutsch als Arbeitssprache weiterhin dominiert und auf absehbare Zeit auch dominieren wird. Zudem verfügen deutsche Unternehmen über große IT-Abteilungen und nutzen IT-Dienstleister hauptsächlich für spezialisierte Services.