Interview mit Wolfgang Wahlster

"Künstliche Intelligenz ist besser als natürliche Dummheit"

Jan-Bernd Meyer betreut als leitender Redakteur Sonderpublikationen und -projekte der COMPUTERWOCHE. Auch für die im Auftrag der Deutschen Messe AG publizierten "CeBIT News" ist Meyer zuständig. Inhaltlich betreut er darüber hinaus Hardware- und Green-IT- bzw. Nachhaltigkeitsthemen sowie alles was mit politischen Hintergründen in der ITK-Szene zu tun hat.   
Roboter, die im Haushalt helfen und alte Menschen pflegen, Systeme mit künstlicher Intelligenz (KI), die sich selbst mit Hilfe von Selbstlern-Algorithmen laufend optimieren - diese Entwicklungen wecken Befürchtungen, Maschinen könnten die Herrschaft über die Menschen übernehmen.

Wolfgang Wahlster, Vorsitzender der Geschäftsführung und Wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz GmbH in Saarbrücken, erläutert im Gespräch, warum er diese Befürchtungen hinsichtlich der Entwicklung humanoider, selbstlernender Systeme nicht teilt. Er spricht aber sehr wohl auch über die Risiken, die mit der fortschreitenden Entwicklung "intelligenter" Systeme verbunden sind.

Das DFKI arbeitet derzeit im Rahmen des vom Bundesforschungsministerium geförderten Projekts Hysociatea daran, wie künftig mit Hilfe von Softwaresystemen hybride Teams aus Mitarbeitern und verschiedenen Robotern für gemeinsame Problemlösungen im Umfeld von Industrie 4.0Industrie 4.0 koordiniert werden können. Hier geht es auch darum, wie ein solches hybrides Team die verschiedenen Teilaufgaben an die jeweils geeignetsten Akteure verteilt und den gemeinsamen Fortschritt verfolgt. Wahlster sagt dazu: "Es ist also in der künstlichen Intelligenz keinesfalls das Ziel, einen digitalen Homunkulus zu erschaffen. Dagegen sollen die Sinneswahrnehmung, die Motorik, die Lernfähigkeit, die Verhaltensplanung und die Inferenzfähigkeit des Menschen komplementär dort ergänzt werden, wo es im Hinblick auf Assistenzfunktionen für den Menschen sinnvoll ist." Alles zu Industrie 4.0 auf CIO.de

Wolfgang Wahlster, Vorsitzender der Geschäftsführung und Wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz GmbH in Saarbrücken.
Wolfgang Wahlster, Vorsitzender der Geschäftsführung und Wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz GmbH in Saarbrücken.
Foto: DFKI

Prominente Unternehmer und Wissenschaftler warnen vor den Gefahren durch künstliche Intelligenz. Stellen solche Systeme eine Gefahr für die Menschen dar?

Wolfgang Wahlster: Ich beschäftige mich seit über 30 Jahren mit dem Thema KI. Wenn man so lange an diesem Thema arbeitet, bekommt man trotz aller Forschungserfolge immer mehr Respekt vor der menschlichen Intelligenz. Trotz aller wissenschaftlichen Durchbrüche der KI, an denen auch deutsche Wissenschaftler maßgeblich beteiligt waren, wie dem Sieg über einen Schachweltmeister, der Dialogübersetzung auf dem Smartphone oder dem selbstfahrenden Auto, ist es Science-Fiction, zu behaupten, dass die künstliche Intelligenz sich verselbständigen könne und die Menschheit bedrohe.

Warum kann das nicht passieren?

Wolfgang Wahlster: Maschinelles Lernen unterscheidet sich prinzipiell vom menschlichen Lernen. Es geht in der KI keinesfalls darum, menschliches Verhalten mit all seinen Stärken, aber auch den vielen Schwächen perfekt nachzubilden, sondern wir wollen dem Menschen mit KI assistieren, wo dies sinnvoll ist. Beim Lernen von Regelmäßigkeiten in sehr großen Datenmengen sind maschinelle Lernverfahren dem Menschen heute bereits überlegen.

Andererseits kann aber Common Sense, der auch die soziale und emotionale Intelligenz des Menschen stark fordert, bislang nur äußerst beschränkt von maschinellen Systemen erworben werden. Technologien der KI zur automatischen Perzeption, zum Verstehen, Lernen, Suchen und Schlussfolgern nutzen wir heute beispielsweise auf SmartphonesSmartphones tagtäglich: bei der Wegsuche, im Sprachdialog mit Assistenzsystemen wie Siri und Cortana oder in Empfehlungssystemen auf Web-Portalen. Dem liegen zwar äußerst komplexe Softwaresysteme zugrunde, aber ich kann hier kein prinzipielles Problem einer sich aufbauenden Superintelligenz erkennen. Alles zu Smartphones auf CIO.de

Zur Startseite