Cloud Computing


Deep Learning as a Service

IBM will KI vereinfachen

Heinrich Vaske ist Editorial Director a.D. von COMPUTERWOCHE, CIO und CSO.
IBM hat einen Public-Cloud-Dienst aufgesetzt, der den Kunden das Feintuning von KI-Modellen erleichtern und den Ressourcen-Bedarf optimieren soll.

IBMIBM will die Eintrittsbarriere für Kunden senken, die in ihrem Unternehmen Machine und Deep Learning nutzen wollen. Dabei verwendet Big Blue selbst KI-Tools, die Anwendern helfen sollen, Cloud-Rechenzeiten und damit Kosten zu minimieren, die mit dem Training von KI-Modellen auftreten. Alles zu IBM auf CIO.de

Nach der Ankündigung, das Unter­nehmen zu spalten und den Fokus stärker auf KI zu legen, macht IBM nun mit ersten Ankündigungen ernst.
Nach der Ankündigung, das Unter­nehmen zu spalten und den Fokus stärker auf KI zu legen, macht IBM nun mit ersten Ankündigungen ernst.
Foto: Peshkova - shutterstock.com

Ruchir Puri, Chefarchitekt von IBM Watson, sieht das größte Hindernis im Zusammenhang mit KI aber nicht in den Kosten für Cloud-Rechenzeiten, sondern im fehlenden Fachwissen rund um Machine und Deep Learning. Entwicklung und Tuning von Modellen bereiteten vielen Firmen Kopfzerbrechen. IBM habe deshalb eine KI vor­bereitet, die das Fine­tuning der Trainings von Kunden optimieren soll. Man wolle die Klientel in ihren Trainings begleiten, den Verbrauch von Rechen­ressourcen optimieren und den Tuning-Prozess verbessern, sagte Puri. Darum gehe es im neuesten Watson-Studio-Angebot "Deep Learning as a Service".

KI-Initiativen genießen Priorität

IBM hat auch sein Spark Techno­logy Center für Technolo­gien wie Deep Learning und andere KI- Anwendungen geöffnet. Es heißt künftig "Center of Open Source Data and AI Technologies" und soll sich nicht mehr nur mit der quelloffenen Technologie Apache Spark, sondern auch mit dem Kreieren, Bereitstellen und Managen von KI-ModellenKI-Modellen befassen. Alles zu Künstliche Intelligenz auf CIO.de

Die ersten beiden Initiativen des neu aufgestellten Centers wurden bereits angekündigt. So nutzt die "Fabric for Deep Learning" (FfDL) die Containerplattform Kubernetes, um das Management von Rechenressourcen in Deep-Learning-Frameworks zu vereinfachen. FfDL kann Tensorflow-, Caffe-, Caffe2-, Pytorch- und Keras-Work­loads über Cloud-Computing-Fabrics (Zusammenstellungen aus CPUs und GPUs) hinweg orchestrieren. Die andere Initiative "Model Asset Exchange" (MAX) ist eine Art Handelsplatz für KI-Trainingsmodelle, damit Firmen die Trainingserfahrungen Dritter nutzen können.

Zur Startseite