Machine Learning und neuronale Netze

Wie Künstliche Intelligenz Arbeit und Gesellschaft verändert

15.03.2017 von Martin Bayer
Künstliche Intelligenz (KI) macht rasante Fortschritte. Erste Systeme lernen selbständig und erzielen Ergebnisse, die sogar ihre Entwickler überraschen. Wer einsteigen will, dem stehen zahlreiche Open-Source-Frameworks zur Verfügung. Und die notwendige Rechenpower mietet man sich einfach in der Cloud.
  • Welche Fortschritte die Entwicklung von KI gemacht hat
  • Wie KI-Startups die neuen Möglichkeiten nutzen können
  • Wie KI menschliche Arbeiten übernimmt und welche Folgen das haben kann

1997: Der IBM-Computer "Deep Blue" schlägt den amtierenden Schachweltmeister Gary Kasparow +++ 2011: Zwei menschliche Quiz-Champions unterliegen dem IBM-Superrechner "Watson" in der US-amerikanischen Quizsendung Jeopardy +++ 2016: Das von Google DeepMind entwickelte Computerprogramm "AlphaGo" besiegt den südkoreanischen Go-Weltmeister Lee Sedol mit 4:1 +++ 2017: "Libratus" zockt Poker-Profis ab.

Diese und andere Meldungen befeuerten in den zurückliegenden Jahrzehnten immer wieder heftige Diskussionen über künstliche Intelligenz und die Konsequenzen für die Menschheit. Meistens schwang dabei die Sorge mit, Maschinen und Computer könnten sich verselbständigen und über immer mehr Lebensbereiche die Kontrolle gewinnen. Zu den prominenten Warnern gehören seit Jahren Microsoft-Gründer Bill Gates und der britische Physiker Stephen Hawking. Andere Experten setzen dagegen große Hoffnungen in KI. Im Zusammenspiel mit Robotik und Automatisierung seien große Entwicklungssprünge in Sachen Produktivität und Arbeitserleichterung möglich. Viele globale Probleme vom Klimawandel bis hin zur Bewältigung von Hunger- und Flüchtlingskrisen ließen sich mit Hilfe von KI-Techniken lösen, so die Hoffnung der Befürworter und Optimisten.

Retter oder Untergang?

Ist KI der Retter oder der Untergang der Menschheit? Solche Diskussionen werden tatsächlich geführt. Keine andere Technik polarisiert stärker. Dabei ist das Thema alles andere als neu. Bereits in den 50er Jahren des 20. Jahrhunderts haben Wissenschaftler den Begriff der künstlichen Intelligenz geprägt. Die Arbeiten von Forschern unterschiedlichster Disziplinen drehten sich um die zentrale Frage, wie sich eine Maschine bauen ließe, die menschliche Intelligenz imitieren kann. Doch die KI-Entwicklung hatte ihre Höhen und Tiefen. Auf Erfolgsmeldungen, die teil­weise euphorische Science-Fiction-Phantasien anstachelten, folgten immer wieder Enttäuschungen, weil die Technik noch nicht reif war und die Rechenkapazitäten fehlten. Experten sprechen in diesem Zusammenhang von "KI-Wintern".

Der britische Physiker Stephen Hawking sieht das Potenzial von Künstlicher Intelligenz, warnt aber auch vor den Risiken.
Foto: Danor Aharon - shutterstock.com

Das könnte sich nun allerdings ändern. Die technischen Voraussetzungen haben sich deutlich weiterentwickelt – es gibt Rechenpower, Speicher und Daten ohne Ende. Auch die Methodik, wie Maschinen und Computer lernen und damit "intelligenter" werden, hat sich grundlegend gewandelt. Vor 20 Jahren profitierte Deep Blue in seinem Schach-Duell gegen Kasparow vor allem von seiner immensen Rechenpower: 200 Millionen Stellungen pro Sekunde konnte das System berechnen. Allerdings handelte es sich dabei nicht um ein selbstlernendes System, wie auch IBM einräumte. Deep Blues Software wurde im Vorfeld mit Tausenden Partien und Schachwissen gefüttert, die der Rechner für seine Züge durchsuchte und bewertete.

Im Lauf der Jahre wurden die KI-Methoden immer weiter verfeinert. IBMs Watson warf zwar immer noch extrem viel Rechenpower in die Waagschale, ausschlaggebend für den Jeopardy-Sieg war aber die DeepQA-Software. Sie konnte den Sinn von Fragen erfassen, die in natürlicher Sprache gestellt wurden, und innerhalb kürzester Zeit auf Basis einer textbasierten Datenbankrecherche die notwendigen Fakten für die richtige Antwort finden.

Das menschliche Gedächtnis simulieren

Google, das im Jahr 2014 das britische Startup DeepMind übernahm und damit seine KI-Anstrengungen deutlich forcierte, verfolgt das Ziel, seine KI-Systeme flexibel einsetzbar zu machen. Die Struktur basiert auf einem neuronalen Netz und beinhaltet darüber hinaus eine Art Kurzzeitspeicher, mit dem sich die Fähigkeiten eines menschlichen Gedächtnisses simulieren lassen.

Für Aufsehen sorgte DeepMinds Programm AlphaGo, das im März 2016 den Profispieler Lee Sedol im Go-Spiel besiegen konnte. Go galt verglichen mit Schach als weit höhere Hürde für die KI. Aufgrund des größeren Spielfelds (19 mal 19 Felder) sowie der hohen Zahl an Zugmöglichkeiten ist das Spiel wesentlich komplexer als Schach und damit auch nicht mit den klassischen Rechenoptionen eines Deep Blue zu bewältigen.

AlphaGo von Google
Foto: Google

AlphaGo verwendete verschiedene Kategorien von künstlichen neuronalen Netzen: ein Regelnetz mit einer Vielzahl von Partien, um alle möglichen Zugvarianten zu bestimmen, sowie ein Bewertungsnetz, um bestimmte Positionen richtig einschätzen zu können. In beiden Netzen kommen Methoden des "bestärkenden Lernens" zum Einsatz. Dabei erlernt ein so­genannter Agent innerhalb der Software selbständig eine Strategie. Es wird nicht vor­gegeben, welche Aktion in welcher Situation die beste ist, sondern das System erhält zu bestimmten Zeitpunkten in der Lernphase ein Feedback. Anhand dessen ermittelt der Agent den Nutzen, den ein Zustand oder eine Aktion hat. Die Software lernt – ähnlich wie ein Mensch – durch positive und negative Bestätigung für bestimmte Handlungen.

Im Grunde genommen hat die KI-Technik damit einen neuen Level erreicht. Es geht nicht mehr darum, einen Rechner mit möglichst viel Informationen und Daten zu füttern, aus denen dieser dann mit Hilfe spezieller Algorithmen, die in aller Regel aufwendig pro­grammiert werden müssen, und mit purer Rechenpower die Lösung für ein Problem, eine Aufgabe oder Frage errechnet. Heute sind lernende KI-Systeme in der Lage, selbständig Lösungen und Antworten zu finden. Das hat zudem den Vorteil, dass diese Art der KI nicht mehr aufwendig für eine bestimmte Aufgabe entwickelt werden muss, sondern flexibel für verschiedene Aufgaben trainiert werden kann.

Libratus zockt Profis im Poker ab

Den Beweis, dass die neue Generation von KI immer innovativer und leistungsstärker funktioniert und arbeitet, hat dieser Tage "Libratus" angetreten. Libratus wurde von Wissenschaftlern der Carnegie-Mellon-University entwickelt und trat in dem Wettbewerb "Brains vs Artificial Intelligence: Upping the Ante" gegen vier Profi-Poker-Spieler an. Vom 11. bis 30. Januar 2017 wurden im Rivers Casino im US-amerikanischen Pittsburgh 120.000 Hände Texas-Hold’em-Pokerblätter gespielt. Am Ende waren Jimmy Chou, Dong Kim, Jason Les und Daniel McAuley besiegt. Libratus hatte die Profi-Spieler nach allen Regeln der Kunst abgezockt. 1.766.250 Dollar hätte die KI gewonnen, wenn es bei dem Spiel um reale Dollars gegangen wäre.

Dabei standen die Chancen für die menschlichen Spieler eigentlich nicht schlecht. Poker stellt eine besonders komplexe Herausforderung für KI dar. Während bei Spielen wie Schach und Go mit offenen Karten gespielt wird und den Spielern jederzeit alle Informa­tionen wie Stellung, Position und Zahl der Figuren beziehungsweise Spielsteine zugänglich sind, gilt es beim Pokern mit unvollständigen Informationen klarzukommen. Keiner der Spieler – auch die KI nicht – weiß, welche der 52 Karten aktuell im Spiel sind. Dazu kommen Bluffs, um die Gegner in die Irre zu führen.

Libratus hat die Profi-Pokerspieler besiegt. Tuomas Sandholm (Mitte mit Krawatte), der das Projekt an der Carnegie-Mellon-University geleitet hat, freut sich über den Erfolg seines KI-Systems.
Foto: RiversCasino

Das macht Poker für Maschinen extrem komplex. Vor zwei Jahren war die erste KI-Version "Claudico" noch unterlegen. Das hat sich nun geändert. Libratus hat gelernt, sich auf die menschliche Spielweise und die damit ver­bundenen Unwägbarkeiten einzustellen. Man habe das KI-System anfangs wohl etwas unterschätzt, räumte Pokerprofi Chou ein. Die Maschine sei jeden Tag besser geworden. Zwar hätten sich die Spieler ausgetauscht, um gemeinsam Schwachstellen der Poker-KI herauszufinden. "Bei jeder Schwäche, die wir fanden, lernte Libratus von uns", stellte Chou aber fest. "Und am nächsten Tag war sie verschwunden."

Poker sei eine gute Messgröße, um die Leistungsfähigkeit von KI zu beurteilen, sagt Tuomas Sandholm, Professor an der Carnegie Mellon University und Kopf der Libratus-Entwicklung, eine wesentlich schwierigere Herausforderung als Schach oder Go. Die Maschine müsse extrem komplexe Entscheidungen treffen, die noch dazu auf unvollständigen Informationen basieren, und gleichzeitig auf Bluffs und andere Tricks reagieren. Nach dem gewonnenen Pokermatch sieht der Wissenschaftler etliche Einsatzbereiche für Libratus, in denen ebenfalls Entscheidungen auf Basis einer un­sicheren Informationslage gefällt werden müssen, zum Beispiel beim Militär oder im Finanzsektor.

Poker, Go und Schach sind nicht gerade Faktoren, die auf grundlegende Verwerfungen in Ökonomie und Gesellschaft hindeuten. Doch der Eindruck, KI erziele ihre spektakulären Erfolge nur auf Spezialgebieten, täuscht. Längst experimentieren Unternehmen aus verschiedenen Branchen, wie KI bestimmte Arbeiten effizienter, schneller und kostengünstiger erledigen kann – in letzter Konsequenz auch ohne Zutun oder Mithilfe des Menschen.

Watson jobbt in der Versicherungsbranche

So will das Versicherungsunternehmen Fukoku Mutual Life 34 Mitarbeiter durch ein KI-System ersetzen. Deren Arbeit soll künftig IBMs Watson-Technik übernehmen. Das System soll Unterlagen von Hospitälern sowie Ärzten analysieren und prüfen, ob deren Angaben schlüssig und richtig sind. Allerdings, so betonten die Verantwortlichen des japanischen Versicherers, würde die Auszahlung der Versicherungsprämie schlussendlich nach wie vor von einem Menschen und nicht von einer Maschine veranlasst.

Watson helfe lediglich, Daten und Informationen zu prüfen. Fukoku verspricht sich davon eine um 30 Prozent bessere Produktivität sowie handfeste finanzielle Vorteile. Das IBM-System soll 2,36 Millionen Dollar sowie weitere 177.000 Dollar pro Jahr an Wartung kosten. Angesichts der jährlich eingesparten Personalkosten in Höhe von 1,65 Millionen Dollar habe sich die Investition innerhalb von rund zwei Jahren amortisiert, rechnen die Japaner vor.

Mitte Januar berichtete das Medium "China Daily", dass ein KI-System einen Artikel über ein Festival geschrieben hat, der in der "Southern Metropolis Daily" veröffentlicht wurde. Die Maschine sei in der Lage, kurze wie auch längere Stücke zu verfassen. Der jetzt veröffentlichte Artikel sei innerhalb einer Sekunde entstanden. Verglichen mit klassischen Reportern könne KI mehr Informationen und Daten verarbeiten und sei außerdem in der Lage, Artikel deutlich schneller zu schreiben, erläuterte Xiaojun Wan, Professor an der Peking University und Leiter des entsprechenden Entwicklungsprojekts. Allerdings könnten Journalisten nicht von heute auf morgen durch Roboter ersetzt werden, relativierte der Wissenschaftler. Wenn es darum gehe, Interviews zu führen und bestimmte Aspekte durch weitere Fragen zu klären, könne KI noch nicht mit menschlichen Fähigkeiten konkurrieren.

Machine Learning FAQ
Facebook-Gesichter
Computer können lernen, menschliche Gesichter zu unterscheiden. Facebook nutzt das für die automatische Gesichtserkennung.
Machine Learning
Anders als das Bild suggeriert ist Machine Learning ein Teilgebiet von Artificial Intelligence – allerdings ein sehr wichtiges.
AlphaGo
Maschine schlägt Mensch: 2016 besiegte Googles Machine Learning System AlphaGo den Weltmeister im Spiel Go.
Grafikprozessoren GPU Nvidia
Die führenden Companies im Machine Learning nutzen für die parallele Verarbeitung der Daten Grafikprozessoren (GPUs) - etwa von Nvidia.
Deep Learning
Deep Learning Verfahren lernen erst Low-Level Elemente wie Helligkeitswerte, dann Elemente auf mittlerer Ebene und schließlich High-Level Elemente wie ganze Gesichter.
IBM Watson
IBM Watson integriert mehrere Artificial Intelligence Methoden: Neben maschinellem Lernen sind das Algorithmen der natürlichen Sprachverarbeitung und des Information Retrieval, der Wissensrepräsentation und der automatischen Inferenz.

Die vielen Startups, die derzeit mit KI experimentieren, dürften dafür sorgen, dass die Liste mit Anwendungsbeispielen schnell länger wird. Dabei hilft auch die Tatsache, dass sich die KI-Entwicklung deutlich vereinfacht hat. Es braucht keine teuren Rechenboliden und aufwendigen Spezialentwicklungen mehr. Heute reichen für den Anfang Workstations beziehungsweise die Compute-Power von Grafikchips. Und wer mehr Leistung benötigt, kann diese relativ einfach in der Cloud dazubuchen. Zudem können die Entwickler mit zahlreichen KI-Frameworks arbeiten, die zum größten Teil als Open Source frei verfügbar sind.

Deutsche Startups experimentieren

Davon profitiert zum Beispiel Peat. Das Start­up aus Hannover hat die App "Plantix" ent­wickelt, mit deren Hilfe Gärtner und Bauern mittels eines Fotos automatisch Schädlinge und Krankheiten von Pflanzen erkennen können. Dahinter steckt ein KI-System, das anhand von Bilderkennung ständig dazulernt und seine Genauigkeit in der Erkennung kontinuierlich verbessert. Die App liefert darüber hinaus Tipps, wie der betroffenen Pflanze zu helfen und mit welchen vorbeugenden Maßnahmen sie zu schützen ist. Doch die Vision der Peat-Gründer reicht noch weiter. Mit Hilfe von GPS-Daten der Fotos sollen sich Verbreitungswege von Krankheiten und Schädlingen genauer verfolgen lassen, erläutert Korbinian Hartberger, bei Peat verantwortlich für Business Relations. Zudem könnten Korrelationen mit Geodaten Aufschlüsse geben, wie Bodenqualität oder Wetter mit der Verbreitung von Pflanzenkrankheiten zusammenhängen.

Mit der App Plantix von Peat sollen sich Pflanzenkrankheiten und Schädlingsbefall schnell und einfach per Foto erkennen lassen.
Foto: Peat

Um Bilderkennung geht es auch bei Hellsicht. Das Startup aus München verfolgt dabei allerdings einen eher generischen Ansatz. CEO Philipp Eulenberg spricht von Deep Learning as a Service. Hellsicht hat sein KI-System darauf ausgerichtet, automatisch Anomalien zu erkennen. Das können Lackschäden in der Autoproduktion, Texturfehler auf Teppichböden oder Auffälligkeiten in Zellkulturen sein. Eulenberg zufolge lässt sich das KI-System jeweils an verschiedene Anwendungsbereiche anpassen. Sein Unternehmen übernimmt dafür die gesamte Projektarbeit, die sich von der Sammlung der Bilder über die Implementierung der KI bis hin zur Aufbereitung der Er­gebnisse erstreckt. Dem System reichen die Bilddaten, es braucht keine Metadaten und Label-Informationen. Die KI lernt, wie eine Oberfläche oder ein Objekt normalerweise auszusehen hat, und kann dann selbständig Anomalien erkennen.

Technik für jedermann

Das sind nur einige Beispiele, viele weitere dürften folgen und nicht nur herkömmliche Arbeiten revolutionieren, sondern auch völlig neue Möglichkeiten eröffnen, an die heute noch niemand denkt. Dabei hilft auch die Technik. KI-Technik ist heute längst nicht mehr nur Spezialisten vorbehalten. Beispielsweise positioniert sich Grafikchip-Hersteller Nvidia eigenen Angaben zufolge verstärkt als KI-Computing-Firma. Graphic Processing Units (GPUs) würden sich gerade bei Deep Learning und KI besser schlagen als klassische Compute-Prozessoren. Das liege in erster Linie daran, dass GPUs stark parallelisiert arbeiteten. Noch im Lauf des Jahres soll zudem der speziell für KI-Belange ausgelegte Chip "Xavier" auf den Markt kommen.

Entwickler-Frameworks für Machine Learning
Apache Spark MLlib
Früher als Teil des Hadoop-Universums bekannt, ist Apache Spark mittlerweile ein bekanntes Machine-Learning-Framework. Sein umfangreiches Angebot an Algorithmen wird ständig überarbeitet und erweitert.
Apache Singa
Singa, seit kurzem Teil des Apache Incubator, ist ein Open-Source-Framework, das Deep-Learning-Mechanismen auf große Datenvolumen hin „trainieren“ soll. Singa stellt ein simples Programmierungsmodell für Deep-Learning-Netzwerke bereit und unterstützt dabei diverse Entwicklungsroutinen.
Caffe
Caffe umfasst ein ganzes Set von frei verfügbaren Referenzmodellen für gängige Klassifizierungsroutinen; die gewachsene Caffe-Community steuert weitere Modelle bei. Caffe unterstützt die Nvidia-Programmiertechnik CUDA, mit der Programmteile wahlweise auch durch den Grafikprozessor (GPU) abgearbeitet werden können.
Microsoft Azure ML Studio
Weil die Cloud also die ideale Umgebung für ML-Anwendungen darstellt, hat Microsoft seine Azure-Cloud mit einem eigenen ML-Service auf der Basis von „pay as you go“ ausgestattet: Mit Azure ML Studio können Nutzer KI-Modelle entwickeln und trainieren und anschließend in APIs umwandeln, um diese wiederum Anderen zur Verfügung zur stellen.
Amazon Machine Learning
Amazon Machine Learning arbeitet mit Daten, die in einer Amazon-Cloud wie S3, Redshift oder RDS liegen und kann mithilfe binärer Klassifizierungen und Multiklassen-Kategorisierung von vorgegebenen Daten neue KI-Modelle bauen.
Microsoft DMTK
Das DMTK (Distributed Machine Learning Toolkit) von Microsoft soll ML-Anwendungen über mehrere Maschinen hinweg skalieren. Es ist eher als "Out of the Box"-Lösung gedacht und weniger als Framework - entsprechend gering ist die Anzahl der unterstützten Algorithmen.
Google TensorFlow
TensorFlow basiert auf sogenannten Data-Flow-Graphen, in denen Bündel von Daten („Tensors“) durch eine Reihe von Algorithmen verarbeitet werden, die durch einen Graph beschrieben sind. Die Bewegungsmuster der Daten innerhalb des Systems heißen „Flows“. Die Graphen lassen sich mittels C++ und Python zusammenbauen und via CPU oder GPU verarbeiten.
Microsoft CNTK
Das Microsoft Computational Network Toolkit funktioniert ähnlich wie Google TensorFlow: Neuronale Netze lassen sich durch gerichtete Graphen erzeugen. Microsofts eigener Beschreibung zufolge lässt sich CNTK außerdem mit Projekten wie Caffe, Theano und Torch vergleichen – sei aber schneller und könne im Gegensatz zu den genannten gar parallel auf Prozessor- und Grafikprozessorleistung zugreifen.
Samsung Veles
Das Samsung-Framework ist dazu gedacht, Datensätze zu analysieren und automatisch zu normalisieren, bevor sie in den Produktivbetrieb übergehen – was wiederum durch eine eigene API namens REST sofort möglich ist – vorausgesetzt, die eingesetzte Hardware hat genügend Power. Der Python-Einsatz in Veles umfasst auch ein eigenes Analyse- und Visualisierungstool namens Jupyter (früher IPython) für die Darstellung einzelner Anwendungs-Cluster.
Brainstorm
Brainstorm setzt auf Python, um zwei Data-Management-APIs („Handers“ genannt) bereitzustellen – eine für CPU-Prozessing durch die Bibliothek „Numpy“ und eine für GPU-Verarbeitung via CUDA. Eine benutzerfreundliche GUI ist in Arbeit.
mlpack 2
Die neue Version der in C++ geschriebenen Machine-Learning-Bibliothek mlpack, die erstmals im Jahr 2011 erschien, bringt eine Menge Neuerungen mit – darunter neue Algorithmen und überarbeitete alte.
Marvin
Der Quellcode von Marvin ist sehr übersichtlich - die enthaltenen vortrainierten Modelle (siehe Bild) ermöglichen aber bereits eine umfangreiche Weiterentwicklung.
Neon
Neon von NervanaSystems ist ein Open-Source-Framework, das auf ein- und abschaltbaren Modulen basiert und KI-Prozesse via CPU, GPU oder Nervanas eigener Hardware ermöglicht.

Auch Intel versucht in diesem Markt, mit seinen auf Hochleistung getrimmten Xeon-Chips Fuß zu fassen. Intel hatte bereits im Oktober 2015 Saffron, einen Anbieter von Cognitive-Computing-Plattformen, übernommen. Erklärtes Ziel ist es, KI breit zugänglich zu machen und stärker zu demokratisieren. Viele IT-Größen forcieren derzeit ihre KI-Strategien. IBM baut kontinuierlich an den Fähigkeiten und Funktionen seiner Cognitive-Computing-Plattform Watson. Microsoft mit dem "Cognitive Toolkit" (CNTK) und Google mit "Tensorflow" bieten Deep-Learning-Frameworks als offene Entwicklungsplattformen an. Zudem arbeiten gerade die großen Cloud-Anbieter, neben Google und Microsoft vor allem auch Amazon Web Services (AWS), daran, KI-Services direkt aus der IT-Wolke heraus anzu­bieten.

KI zum Staunen

Die Fortschritte sind rasant. Angesichts der vielen neuen KI-Möglichkeiten räumte Google- Mitgründer Sergey Brin kürzlich auf dem World Economic Forum (WEF) im schweizerischen Davos ein, dass ihn das Phänomen der künstlichen Intelligenz überrascht habe. Der Manager erzählte, er habe in den 90er Jahren des vergangenen Jahrhunderts dem Thema keine Aufmerksamkeit geschenkt, weil im Grunde damals jeder davon ausgegangen sei, dass KI niemals funktionieren werde. Heute sei es schwer vorauszusagen, wie sich die Dinge weiterentwickeln werden: "Wir erkennen keine Grenzen."

Das wirft Fragen auf, wie man mit KI umgehen sollte – gerade auch hinsichtlich der Auswirkungen auf Arbeit und Gesellschaft. IBM-Chefin Virginia Rometty glaubt an eine Partnerschaft zwischen Mensch und Maschine. Zwar werde KI einige Jobs obsolet machen, die meisten Menschen würden künftig jedoch mit KI-Systemen arbeiten. Microsoft-CEO Satya Nadella plädierte auf der diesjährigen DLD-Konferenz (Digital, Life, Design) Mitte Januar in München dafür, dass KI-Technik nicht allein Sache der großen IT-Unternehmen sein dürfe. Vielmehr müsse die gesamte Gesellschaft von KI profitieren, indem Wachstum und Produktivität angekurbelt würden. Allerdings sieht Nadella noch etliche Herausforderungen zu bewältigen, beispielsweise wie sich die Transparenz und damit das Vertrauen in KI verbessern lasse. Außerdem müsse man sich dringend mit den Folgen für den Arbeitsmarkt beschäftigen.

Microsoft-Chef Satya Nadella plädiert dafür, dass KI-Technik nicht allein Sache der großen IT-Konzerne sein dürfe.
Foto: Microsoft

SAPs Technikvorstand Bernd Leukert warnte, dass sich die Jobprofile massiv verändern würden. Entsprechend müssten sich Ausbildung und Training wandeln. Dafür seien gemeinsame Anstrengungen von Regierung, Verbänden und Unternehmen erforderlich, mahnte Leukert in einem Gespräch mit dem "Handelsblatt". "Momentan habe ich allerdings der Eindruck, dass sich jeder auf den anderen verlässt."