Projektmanagement


Software Defined Data Center

Beiersdorf virtualisiert Server komplett

Werner Kurzlechner lebt als freier Journalist in Berlin und stellt regelmäßig Rechtsurteile vor, die Einfluss auf die tägliche Arbeit von Finanzentscheidern nehmen. Als Wirtschaftshistoriker ist er auch für Fachmagazine und Tageszeitungen jenseits der IT-Welt tätig.
2004 begann die Virtualisierung. Nun sind tatsächlich sämtliche Server im Konzern virtualisiert. Beiersdorf hat sich bereits neue Ziele gesetzt: die totale Automatisierung. Kritik gibt es an der Lizenzpolitik der großen Software-Anbieter.
Gab die Devise "Virtualization First" aus: Jörg Meier, Department Manager Enterprise Application Management & Support bei der BSS.
Gab die Devise "Virtualization First" aus: Jörg Meier, Department Manager Enterprise Application Management & Support bei der BSS.
Foto: Beiersdorf

BeiersdorfBeiersdorf hat seine Server-Landschaft vollständig virtualisiert. Sie besteht aus zwei Rechenzentren am Firmencampus des Kosmetikherstellers in Hamburg sowie rund 80 weiteren Standorten in aller Welt. Die Beiersdorf Shared Services GmbH (BSS) als hauseigener IT-Dienstleister stemmte das Großprojekt über viele Jahre hinweg - und zwar mit Hilfe einer Reihe von Produkten des Herstellers VMware, der stets eng an der Seite des Anwenders agierte. Top-500-Firmenprofil für Beiersdorf

Abgeschlossen ist die langjährige Kooperation mit dem erreichten Meilenstein allerdings noch lange nicht. "Wir verfolgen nach wie vor unser großes Ziel, alle Bereiche zu virtualisieren, um die vollständige Automatisierung zu erreichen - eben ein Software-Defined Data Center", sagt Andreas Liehmann, Manager ServerServer Platform bei BSS. "Und das mit Hilfe von VMware." Alles zu Server auf CIO.de

Zweifel im Mutterkonzern

Um weltweit agiler, flexibler und schneller auf Anfragen reagieren zu können, entschieden sich die IT-Verantwortlichen des Herstellers von Markenprodukten wie Nivea und Eucerin bereits vor einem Jahrzehnt für die VirtualisierungVirtualisierung. Startschuss war im Jahr 2004. Damals begannen die IT-Administratoren, am Standort Hamburg virtuelle Maschinen mit Hilfe von VMware vSphere einzuführen. 500 physikalische Maschinen hatte Beiersdorf damals an Elbe und Alster im Einsatz. Virtualisiert wurden seinerzeit auch die Außenstellen der BSS mit Produkten anderer Hersteller. Alles zu Virtualisierung auf CIO.de

Technische Schwachstellen und produktbedingte Management-Defizite führten zu dem Entschluss, weltweit auf eine einheitliche Lösung zu setzen. Für den Umzug wurde der VMware Converter eingesetzt. Dieser zog die verbliebenen physikalischen Server und virtuellen Maschinen lesend ab, erstellte neue virtuelle Maschinen und nahm sie in Betrieb.

Seinerzeit konnte BSS den ständig neuen Aufträgen des Mutterkonzerns - zum Beispiel Anfragen nach neuen Architekturen oder Servern - nur eingeschränkt gerecht werden, weil es der IT schlicht an Agilität und Schnelligkeit fehlte. Für Abhilfe sorgte zunächst die Virtualisierung kleinerer Applikationen wie Print-Server, später dann auch die Virtualisierung kritischer Produktionssysteme.

Ohne Zweifel und Widerstände verlief das zunächst nicht. "Wir sind zu Beginn auf Misstrauen und Zurückhaltung beim Management unserer internen Kunden gegenüber dieser neuen Technologie gestoßen", erinnert sich Liehmann. "Deshalb mussten wir innerhalb der Firma Überzeugungs- und Aufklärungsarbeit leisten und die Vorteile und Möglichkeiten aufzuzeigen, die mit den neuen Lösungen möglich sind."

Nach SAP kam Microsoft an die Reihe

Das Umdenken ist mittlerweile längst erfolgt. Statt als Kostenfaktor sieht Beiersdorf seine IT heute als Instrument, um Kosten zu sparen und Prozesse zu beschleunigen. Durch die Investition in die IT könne man heute bereits innerhalb von ein bis zwei Tagen statt wie früher erst nach vier bis sechs Wochen auf Geschäftsanfragen und auf ProjekteProjekte der Konkurrenz reagieren. Diese durch die IT ermöglichte Agilität stelle einen klaren Wettbewerbsvorteil für das gesamte Unternehmen dar. Alles zu Projekte auf CIO.de

Vorangetrieben hat diesen Sinneswandel im Unternehmen vor allem Jörg Meier, Department Manager Enterprise Application Management & Support bei der BSS. Auf seinen Vorschlag hin beschloss der Konzern 2011 die Virtualisierung zu 100 Prozent: Auch die letzten Mainframe-Systeme sollten auf die VMware-Plattform migrieren. Es folgte die wichtige Etappe der SAP-Virtualisierung. "SAP läuft sehr viel schneller als auf dem Mainframe", lobt Liehmann das Ergebnis der Anstrengungen. "Zudem kann die Applikation, auch wenn diese in Betrieb ist, ohne Einschränkungen über VMware vMotion auf den ESXi-Servern verschoben werden."

Dank der von Jörg Meier durchgesetzten "Virtualization First"-Regelung wurden im Anschluss an das abgeschlossene Projekt auch weitere unternehmenskritische Applikationen wie Microsoft SharepointSharepoint, Microsoft Exchange und Microsoft SQL Server erfolgreich virtualisiert und das Ziel der vollständigen Automatisierung weiter verfolgt. Alles zu Sharepoint auf CIO.de

Links zum Artikel

Branche: Chemie

Themen: IBM, Konsolidierung, Oracle, Projekte, Server, Sharepoint und Virtualisierung

Top500-Firmenprofil: Beiersdorf

Kommentare zum Artikel

Volker Tristram

@JoeMeier
...nur ein paar Gedanken zu den Aussagen/Erkenntnissen/Problemen, die in diesem thread angesprochen wurden:
IT - Kostenfaktor oder echte Serviceabteilung
Ich habe die Zeit noch erlebt, als die DV-Abteilung ( so nannte man das damals ) ein Budget für das Unternehmen und alle Anwendungen hatte. DV hing organisatorisch am Finanzvorstand ( ! ). Der dachte natürlich nur in Kostenkategorien, wie es sein Job verlangt. Da er keine Information hatte, ob und wenn ja, wieviel, Vorteile die auf der DV laufenden Anwendungen den Anwendern erbrachten, war das DV-Budget ein Kostenfaktor...
Im Streben nach ( beserer ) Anerkennung seiner Abteilung 'erfand' der Leiter DV das Prinzip, daß alle Anwender über ihre Anwendungen selbst entscheiden sollten. Das hieß als erstes, daß die entspr. Abteilungen diese Anwendungen unter Kosten/Nutzengesichtspunkten evaluierten und dann entschieden, ob diese a. weiter laufen, b. nicht weiter laufen, c. angepaßt weiter laufen sollten. Für alle weiteren Anwendungen wurde - vor ihrer detaillierten Formulierung - geprüft, ob man sie überhaupt braucht. Wenn ja, wurde eindetailliertes Anforderungsbuch("functional specifications") in Zusammenarbeit zwischen DV und Anwender erstellt. Dies galt als Grundlage für die Endabnahme. Außerdem wurde eine Nutzenanalyse erstellt, deren Daten ausschließlich von den Anwenern kamen(!). Denen wurden dann die Kosten entgegengestellt. Als das sich eingespielt hatte, gab es kein Gerede mehr über DV als Kostenfaktor...
Cloud Computing vs. in house IT
Für mich gibt es nur einen Grund für eine Auslagerung: Unwillen, es selbst zu machen!
Und viele Gründe dagegen: Datensicherheit, Ausfallsicherheit, Kostenkontrolle...
Wenn unter 'cloud computing' nur vestanden wird, daß ein Rechenzentrum ausgelagert wird, oder als profit centre eingerichtet, o. ä., dann ist das etwas anderes. Dann gebe ich der ehemaligen Unternehmensabteilung nur eine andere juristische Form und erlaube ihr, in enstprechendem Rahmen, für Externe zu arbeiten. Cloud Computing, so wie ich es verstanden habe(!), ist nichts anderes als ausgelagerte Datenverarbeitung. Die, die das anbieten, sind keine karitativen Einrichtungen, wollen Gewinn machen! Den Aufschlag kann man vermeiden, wenn man eine strff geführte an Kosten/Nutzen orientierte, Abteilung hat.

Hans Pans

Ich freue mich, dass die Diskussion sachlich weitergeführt wird.

Erlauben Sie ein paar Fragen:

- Vertrauen Sie der Post/DHL, dass sie das Briefgeheimnis nicht verletzen?
- Vertrauen Sie ihren Zulieferern, dass sie Ihre Rezepturen nicht verraten?
- Vertrauen Sie Ihrer IT, dass Sie alles für die zunächst technische Sicherheit tut? Wann haben Sie zuletzt Ihren Core Switch gepatched?
- Vertrauen Sie den externen Mitarbeitern, die Sie nicht ihre Kompetenzen missbrauchen?
- Vertrauen Sie den Softwareherstellern, dass sie mit ihren Patches keine Malware einschleusen?

Dreh und Angelpunkt ist die Frage des Vertrauens. Für Anbieter in der Cloud, gegenüber meiner IT, gegenüber meinen eigenen und externen Mitarbeitern (<- da liegt bekanntermassen die größte Sicherheitslücke vor). Und ich erlebe es Tag täglich, dass Externe volle Admin-Rechte haben und es niemanden groß stört... Sie vertrauen einem Fremden Ihre Daten an.

Wenn ich meinem Cloud-Anbieter vertraue, dass er in seinem ureigenen Geschäftssinne niemals Daten der Kunden preisgibt und auch nicht für sich verwertet, dann gehe ich in die Cloud.

Größere Anbieter (Salesforce, Microsoft) genießen natürlich ein größeres Vertrauen und werden und werden auch künftig Services anbieten, die mir das Leben erleichtern, und das zu besseren Kosten und einer schnellen Bereitstellung, unter Beachtung aller Anforderungen (rechtlich/regulatorisch/eigenen).

the_admin

Guten Tag Hans Pans,

der Preis für Cloud-Lösungen wird durchaus entscheidend sein!

Nämlich der unternehmerisch "wahre" Preis.

Die Eintrittskarte in jede Cloud-Lösung, ist die Abgabe der unternehmerischen Daten, deren Zugriffsmethodik sowie die Prozesse "dahinter". Also Vertrauen, Betriebssicherheit & Flexibilität.

Fakt ist: In jedem Betrieb heutzutage ist die IT ein Kernfaktor für das Geschäft. Operativ auf der einen Seite und strategisch auf der anderen Seite. Ohne verlässliche, betriebssicher und flexible IT, kann jeder Unternehmer sein Unternehmen und seine Verantwortung an den Nagel hängen.

Wenn man unternehmenskritische Daten & Prozesse nach "draußen" gibt, macht man sich im günstigsten Falle nur operativ abhängig von Dritten. ... was ist denn wenn mein geliebter Konkurrent sich eben diesen Cloud-Anbieter einverleibt? Oder der Anbieter "pleite"* geht und seinen Betrieb einstellen muss? Von großen Migrationsprojekten von Cloud-zu-Cloud (-Anbieter) habe ich noch nicht viel gehört. Daten kann man sicherlich 1000-fach verschlüsseln & härten, aber den Zugriff auf eben diese und die daraus ableitbaren Informationen eben nicht.

Wir bei Beiersdorf nutzen durchaus Cloud-Lösungen, aber nur begrenzt (um z.B. eben mal Projekte zu beschleunigen). Für ganzheitliche Lösungen kommt dieses strapazierte Gut "Cloud" nicht in Frage. Dann könnten wir ja gleich unsere Rezepturen und internen Abläufe zu "Open Source" machen.

Um die "Time to Market" signifikant zu verkürzen, hilft es z.B. mit seiner internen IT ein gutes, sicheres & vertrauensbasierendes Verhältnis zu haben. Und nicht im stillen Kämmerlein (top-down) zu forschen. Noch schlimmer ist es, seine interne IT als puren Kostenfaktor zu betrachten und entsprechend anhand von Nasen und Münzen primär "wertzuschätzen".

IT heißt zuerst flexibles Informationsmanagement & unternehmerische Sicherheit, und das ganze unabhängig von Dritten. Das sollte jedem Unternehmer klar sein.

Mit der Virtualisierung aller Server weltweit, haben wir als interne Beiersdorf-IT einen wichtigen Meilenstein erreicht. Wir werden in den nächsten Jahren dem Ganzen noch den richtigen "Schliff" geben, sprich Automatisieren was das Zeug hält und alles noch schneller, flexibler & tranparenter gestalten. Dabei werden wir mit Sicherheit höchsten Einsatz zeigen, denn wir sind als interne IT Bestandteil des Unternehmens, stehen mit all unserer Expertise direkt & zeitnah mit vollstem Einsatz zur Verfügung ... und sind nicht "ge-klaut" :)

Beste Grüße
Andreas Liehmann

Volker Tristram

@JoeMeier,
das bedeutet natürlich eine Reduktion! Allein, wenn ich die Anzahl der Systemadmins etc. betrachte! Sicher ist mir auch die Bedeutung von 'distributed processing' bekannt. So habe ich in den frühen 90er Jahren schon versucht, zusammen mit einigen Kollegen, 'distributed data processing' zu designen. Wir haben uns gedacht, daß, z. B. bei einer Anwendung im Lagerbereich, viele Prüfungen auf Korrektheit der Dateneingabe im Vorfeld, d. h. damals auf PCs vor Ort, gemacht werden könnten. Schwieriger wurde es schon bei der Lagerbuchhaltung, wenn z. B. eine Bestandsabfrage gemacht wurde, die die Basis für eine Bestandsabbuchung sein sollte. Da ging es dann schon sehr tief in die Transaktionsprogrammierung, mit Datenbank, Zugriffsblockierung auf Feldebene, und nicht zuletzt, um roll back...
Wir haben damals schon gesehen, daß wenn man das sauber, d. h. absturzsicher, hinkriegt, es viele Vorteile vor zentraler Verarbeitung hat. Aber wir haben auch begriffen, daß es immer noch typische Anwendungen gibt, die am besten zentral ablaufen. Auch glaube ich, daß es immer noch sicherer ist, einige hundert virtuelle Maschinen auf einem mainframe zu haben, als diese hunderte Maschinen als Server zu betreuen. Die Dickschiffe sind ja doch immer noch ausfallsicherer - in hard- und software - als die kleineren Server. Und dann: die Sysadmins...: s.oben!
Ich habe den 'Trend' weg vom mainframe, hin zu verteilten Serverlandschaften erlebt - und habe auch mitbekommen, wie Großanwender wieder die Vorzüge der zentralen IT zu schätzen begannen. Ich meine einen entsprechenden Trend zurück zu erkenen. Tendenz: distributed processing.
Volker Tristram
(von meinem iPad gesendet)

JoeMeier

Ein Referenzbericht wird immer nur einen Ausschnitt aus der IT eines Unternehmens darstellen können, die komplette IT Architektur zu beschreiben gehört nicht in die Computerwoche, sondern würde ein Buch füllen.

Und damit sind wir schon beim anderen Thema, dass Sie ansprechen. Ich stimme Ihnen zu, dass der Kampf (wenn es denn einer ist) nicht über den Preis gewonnen wird. Als interner IT Anbieter darf man aber über den Preis auch nicht verlieren. Wir gewinnen durch Agilität und Flexibilität.

Hier passt Ihr Vergleich nicht in die reale Welt. Ein Projekt, dass ich in 1-2 Minuten mit einer Cloudlösung erledigen kann gibt es nicht - zumindest nicht wenn wir über die tatsächliche Abbildung von Business Prozessen mit entsprechenden Schnittstellen und Daten sprechen. Denn hierbei dauern alleine die Vertragsverhandlungen (die ich nunmal auch mit Anbietern von Clouddiensten führen muss) und die Bearbeitung der Datenschutzthemen deutlich länger.

Natürlich kann ich bei der Reduktion auf die rein technische Lösung eine Minute angeben, nämlich dann wenn der Service dann tatsächlich freigeschaltet wird, aber das ist kein ganzheitlicher Blick auf IT und auf Projekte. Auch hier kann ich mit meiner Private Cloud durchaus mithalten, denn die Technologien die in der öffentlichen Cloud angeboten werden sind auch nichts anderes als das was ich intern bereitstelle. Der Unterschied liegt in den darauf laufenden Services, die ich in der Cloud natürlich einfach nach Bedarf konsumieren kann, dann aber eben nicht als Teil des Ganzen sondern als Punktlösung ohne Schnittstelle zu meinen Unternehmensdaten und Prozessen. ERP Systeme und Fertigungssteuerung sind eben nicht Ariba, Box oder Webex.

Daher ist es aus meiner Sicht wichtig als IT Dienstleister für mein Unternehmen beides zu ermöglichen, zu verstehen und für das Business die beste Lösung bereitzustellen. Meinen Kunden ist es egal, woher ein IT Service kommt. Sie wollen einen Partner, der Ihre Anforderungen schnell und flexibel in Lösungen umsetzt. Den etablierten und funktionierenden Lösungsweg zu vernachlässigen, weil er gerade nicht "in" ist, halte ich dabei für fahrlässig, genauso wie ich ein Beharren auf Lösungen, weil sie intern bereitgestellt werden können, für falsch halte. Es ist nicht das eine oder andere, sondern jeweils das Beste, was das Unternehmen voranbringt.

Hans Pans

Freut mich, dass unsere Gedanken gar nicht mal so stark abweichen wie gedacht.

Die Security-Debatte in der Cloud ist mühsam, da jeden Tag die Sicherheit der eigenen IT Gegenstand der Tagespresse ist. Gestern Sony, heute der Bundestag. Und hoffentlich niemals Beiersdorf.

Ich glaube im übrigen nicht, dass der Preis den Kampf um die Cloud entscheiden wird. Es ist und bleibt die Time to Market: wie schnell komme ich mit welchem Vehikel zum Projektziel.

Aus meinen Erfahrungen braucht die interne IT für eine 100% Lösung 1-2 Jahre (je nach Projekt), der Cloudanbieter 1-2 Minuten. Hier mache ich gerne ein paar Abstriche von meinen Anforderungen und lebe mit einer 90% Lösung, die ich aber sofort nutzen kann. Die IT bringt mir ggf eine 100% passende Lösung, diese aber 12 Monate zu spät - meine Anforderungen haben sich dann längst weiterentwickelt...

Diesen Schuh muss sich eine Organisation anziehen, die einfach nicht schneller kann. Das liegt in der Natur der Sache komplexer Strukturen und Politik. Wenn Sie es anders können -> meinen Glückwunsch und meine Hochachtung. Allerdings würde dann auch nicht über 100% Virtualisierung berichtet werden.

JoeMeier

Ich trinke auch Bier und ich glaube das Thema ist mehr als Abendfüllend!

Die Annahme das eine Unternehmens IT unflexibel und wenig agil ist, ist aus meiner Sicht aus dem Jahr 2008 (womit ich jetzt auch verstehe, warum Sie sich dorthin zurückversetzt fühlen). Wer seine IT unter wirtschaftlichen Aspekten betreibt und auf neue Herausforderungen wie Cloud Dienste und Consumerization rechtzeitig eingestellt hat, der ist heute sehr wohl in der Lage genauso schlank, schick und preiswert wie Sie es bezeichnen Services für die inhouse Kunden zur Verfügung zu stellen.

Natürlich benutzen Fachabteilungen Clouddienste, auch bei uns, und zwar interne und extern bereitgestellte. Der Mehrwert der modernen IT liegt doch aber darin über das Gesamthafte die Governance zu halten und eben genau auf die Themen Datenschutz und Sicherheit zu achten ohne die Benefits der neuen Services aus den Augen zu verlieren. Denn Clouddienste mögen noch so schick sein, wenn ich wegen der Nutzung mein geistiges Eigentum verliere oder ich gar Angriffsflächen offeriere, die meine Marke kaputt machen können, dann sind die massiven Benefits des Business, die Sie ansprechen, schnell dahin.

Den Gedanken, dass Unternehmens IT marode sein muss und grundsätzlich teurer als public Clouddienste kenne ich nur von Unternehmen, die Ihre IT Infrastruktur nicht managen, im Innovationsstau stecken und deshalb nicht konkurrenzfähig zu der schönen Wolkenwelt "da draussen" sind.

Das muß nicht so sein, und das haben wir über Jahre hinweg bewiesen.

JoeMeier

Wir sind im Jahr 2004 mit 500 zentralen, ca. 300 dezentralen und 2 IBM Mainframes gestartet. Hinzu kommt eine Steigerung der bereitgestellten Systeme um gut 20%/Jahr. Heute betreiben wir zentral knapp 70 Standard Midrange Serversysteme, dezentral knapp 100. Unsere Mainframes sind vor 3 Jahren auf diese Infrastruktur migriert. Ich hoffe das hilft.

Hans Pans

Ihr Standpunkt ist lobenswert und reflektiert sehr gut den Status Quo Ihrer Unternehmens-IT: Sie führen eine Technologie flächendeckend ein, verbunden mit der Hoffnung, dass jetzt das Business endlich mal Ruhe gibt und nicht mehr an der IT rumnörgelt.

Dabei tauschen Sie lediglich den Unterbau aus, bewegen sich von physischer HW zu virtualisierter HW. Klar, das spart augenscheinlich Kosten, die aber in Teilen durch Lizenzen von VMware und den Zusatzinvest in z.B. Storage wieder aufgefressen werden. Klar zum 2., Sie haben einen Zugewinn an Verfügbarkeit und an Agilität. Daran ist nichts zu kritisieren, außer dass es ein Erfolg für die IT ist, von dem das Business nur am Rande etwas hat.

Ein unternehmerischer Erfolg wäre es, den maroden Unterbau nicht zu modernisieren, sondern sich grundlegend Gedanken über die IT der Zukunft - und damit auch der Zukunft Ihrer IT - zu machen.

Das Thema ist abendfüllend (trinken Sie Bier?), aber als steile These in den Raum geschmissen: IT Abteilungen (auch jene, die in einer GmbH ausgegliedert sind) verzweifeln an der Komplexität der letzten 40 Jahre IT. Diese Komplexität ist teuer, ist gefährlich (z.B.werden Patches nicht zeitnah eingespielt) und ein absoluter Hemmschuh bei der Einführung neuer Services. Nebenbei ist das auch wohl der Grund, warum die eigene IT nicht besonders beliebt ist. Sie gilt gemeinhin als Blockierer und Verzögerer.

Dem gegenüber stehen nun Cloud Services, die schlank&schick&preiswert an der IT vorbei ins Unternehmen kommen (ja, sie sind schon längst da, auch wenn Sie es niemals genehmigt haben). Alles, was als Service bezogen wird und instantan bereitgestellt wird, hat einen großen Charme für Unternehmen. Die manchmal berechtigten Bedenken in Sachen Datenschutz geraten da schnell ins Hintertreffen, da das Business in diesen Services einen massiven Benefit sieht.

Wenn Sie mir insgeheim recht geben, stellt sich die Frage nach dem WAS NUN?

Ärmel hochkrempeln und ran: seien/werden Sie der Enabler fürs Business. Was keine Innovationen verspricht, wird gepflegt aber nicht modernisiert. Volle Kraft für Innovationen, Fokus aufs Business, keine Energie auf Diskussion über Technologien und auf "...das haben wir aber immer schon so gemacht" verschwenden.

Technologische Herausforderungen ergeben sich hier beispielsweise bei der Integration von Cloud Services (Identitiymanagement, Integration in bestehende Systeme). Organisatorische Herausforderungen ergeben sich in Folge des Wandels von ganz alleine...

Volker Tristram

Mir fehlt in dem Artikel die wichtigste Meldung: Wieviele Computer ( Server ) gab es vor dem Umbau, wieviel nachher? Aus dem Artikel geht für mich nicht klar hervor, ob z. B. die Anzahl der Server ( Hardware! ) verringert wurde. Virtualisierung ist für mich, z. B. die Verlagerung von vielen kleinen "PCs" auf einen oder wenige große mainframes ( mit VM ).

JoeMeier

Ich denke mit klaren unternehmerischen Erfolgen, die durch den konsequenten Einsatz von IT erreicht werden, kann man in jedem Jahr beeindrucken. Wir betreiben IT als Enabler und nicht zum Selbstzweck. Unabhängig davon gibt es aber in der Tat insbesondere in Deutschland nur sehr wenige DAX Konzerne, die zu 100% virtualisierte private-cloud Rechenzentren betreiben. Ich würde mich aber freuen wenn Sie mich in Ihren zu einem Gedankenaustausch einladen, um über die Herausforderungen in 2015 und darüber hinaus zu diskuttieren.

Hans Pans

Ich fühle mich ins Jahr 2008 zurückversetzt, als man mit solchen Meldungen noch die Großmutter beeindrucken konnte...

comments powered by Disqus
Zur Startseite