Emerging Technologies

Diese Trends sollten CIOs im Auge behalten

Peter Wayner schreibt unter anderem für unsere US-Schwesterpublikation InfoWorld.com und ist Autor verschiedener Bücher - unter anderem zu den Themen Open Source Software, autonomes Fahren und digitale Transaktionen.
Ein Überblick für CIOs über zukunftsweisende Strategien und Technologien, die das nächste IT-Jahrzehnt beeinflussen.
Die Welt steht nicht still, schon gar nicht in der IT. Daher gilt es, aufkommende Technologien und Trendthemen stets im Blick zu behalten.
Die Welt steht nicht still, schon gar nicht in der IT. Daher gilt es, aufkommende Technologien und Trendthemen stets im Blick zu behalten.
Foto: VideoFlow - shutterstock.com

CIOs müssen die nächste Generation aufkommender Technologien im Auge behalten. Schließlich kann neue Software in Wochen von den Träumen eines cleveren Programmierers zu einem unverzichtbaren Bestandteil jeder IT-Abteilung werden. Einst wilde und scheinbar unmögliche Ideen wie große Sprachmodelle, maschinelles Lernen und die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) haben den Weg von den Labors in den Betrieb gefunden. Und die Reise geht weiter.

Wir stellen die spannendsten Ideen, Hypes und "Emerging Technologies" vor, die an Dynamik gewinnen. IT-Abteilungen müssen herausfinden, ob und wann der richtige Zeitpunkt gekommen ist, sie für ernsthafte Aufgaben in ihrem Technologie-Stack einzusetzen.

Analoge Datenverarbeitung

Das gängigste Paradigma für Berechnungen ist digitale Hardware, deren Transistoren zwei Zustände haben: an und aus. Jetzt haben einige KI-Architekten ein Auge auf das längst vergessene Modell der analogen Berechnung geworfen, bei dem die Werte als Spannungen oder Ströme ausgedrückt werden. Anstelle von nur zwei Zuständen können diese eine fast unendliche Anzahl von Werten annehmen - oder zumindest so viele, wie die Präzision des Systems genau messen kann.

Für weitere spannende Hintergründe, Strategien und Deep Dives aus der CIO-Community abonnieren Sie unsere Newsletter.

Die Faszination dieser Idee rührt von der Beobachtung her, dass KI-ModelleKI-Modelle nicht die gleiche Präzision benötigen wie ein Kassenbuch. Wenn einige der Milliarden von Parametern in einem Modell um ein Prozent, zehn Prozent oder sogar mehr abweichen, gleichen die anderen dies aus, und das Modell ist insgesamt oft noch genauso genau. Man hofft, dass analoge Chips deutlich weniger Strom verbrauchen, so dass sie sich für mobile und dezentrale Anwendungen auf Rechnern eignen, die nicht immer an das Stromnetz angeschlossen sind. Alles zu Künstliche Intelligenz auf CIO.de

Hauptakteure: Alle Entwickler, die bereit sind, ein wenig Präzision gegen eine große Stromeinsparung einzutauschen.

Erfolgsaussichten: Sie hängen von der Art der Anwendungen ab: Wenn es weniger um absolute Präzision als vielmehr um Stromeinsparung geht, werden die Chips vermutlich Anklang finden.

Bessere API-Kontrolle

Einst gab es kaum einen Unterschied zwischen einer API und einer Webseite. Wenn Informationen öffentlich sind, warum sollte man einen Unterschied machen? Aber jetzt sehen viele Unternehmen, dass Daten auf unterschiedliche Weise verwendet werden können und der Zugang vielleicht stärker reguliert werden sollte.

Die größten Bedenken kommen von Websites, die erkennen, wie ihre Daten zum Trainieren von KI-Modellen verwendet werden. Einige haben Angst, dass Modelle, die mit Website Scraping erstellt werden, die Daten missbrauchen oder falsch verstehen. Könnten die Modelle die Privatsphäre ihrer Nutzer verletzen, wenn die KI ein Detail zur falschen Zeit ausspuckt? Andere wollen ein Stück vom Börsengang abhaben, wenn das KI-Modell sein Debüt gibt.

Einige Websites kontrollieren bereits den Zugang zu den Video- und Textdaten, auf die die KI-Entwickler so scharf sind. Sie beschränken die Downloads und verschärfen die Nutzungsbedingungen für den Fall, dass es zu einer Klage kommt. Andere bauen eine neue Ebene der Intelligenz in ihre APIs ein, damit intelligentere Entscheidungen über die Freigabe von Informationen getroffen werden können, die auch die Business-Belange berücksichtigen.

Hauptakteure: Unternehmen, die den Zugang zu großen Datenblöcken kontrollieren, die für eine automatisierte Analyse nützlich sein können.

Erfolgsaussichten: Der Wandel hat begonnen, Unternehmen überprüfen ihre APIs und führen striktere Kontrollen ein. Die entscheidende Frage ist, wie Nutzer reagieren werden. Könnten die strengen Kontrollen dazu führen, dass einige großartige Funktionen, die durch APIs ermöglicht werden, abgeschnitten werden?

Remote Collaboration

Die COVID-19-Pandemie mag für viele der Vergangenheit angehören, aber der Kampf um Büros und räumliche Nähe geht weiter. Auf der einen Seite stehen Menschen, die Synergieeffekte aus dem persönlichen Zusammentreffen erwarten. Auf der anderen Seite stehen diejenigen, die die Zeit und die Kosten des Pendelns fürchten oder in Ruhe arbeiten wollen.

Die IT-Abteilung spielt in dieser Debatte eine wichtige Rolle, da sie die zweite und dritte Generation von Collaboration-ToolsCollaboration-Tools testet und einsetzt. Einfache Videochats werden durch zweckmäßigere ToolsTools ersetzt, die unter anderem Standup-Meetings, spontane Diskussionen und mehrtägige Konferenzen ermöglichen. IT-Teams müssen den besten Weg finden, die übergeordneten Aufgaben mit besseren Tools und Praktiken zu unterstützen. Alles zu Collaboration auf CIO.de Alles zu Tools auf CIO.de

Hauptakteure: Jedes Team, das ein Gleichgewicht zwischen Nähe und Effizienz herstellen muss. Jedes Team mit Mitarbeitenden, die die Zeit des Pendelns gegen den Wert der persönlichen Interaktion abwägen muss.

Erfolgsaussichten: Der Kampf zwischen den Fans von Online- und Offline-Konferenzen ist bereits im Gange. Die eigentliche Frage ist, ob es Tools geben wird, die so gut sind, dass sogar die Liebhaber von persönlichen Treffen sagen werden: "Warum loggen wir uns nicht alle gemeinsam von diesem Konferenzraum aus in das Tool ein?"

Physische Sicherheit digitaler Systeme

Wenn die IT-Belegschaft an Computersicherheit denkt, geht es meist um clevere HackerHacker, die über das Internet in ihre Systeme eindringen. Sie sorgt sich um den Schutz der digitalen Daten, die in Datenbanken, Netzwerken oder Servern gespeichert sind. Die Welt der verschließbaren Türen und der physischen Zugangskontrolle wird Schlossern und Bauleitern überlassen. Alles zu Hacker auf CIO.de

Die physische Sicherheit wird jedoch zu einem echten Problem und IT-Manager können sie nicht als selbstverständlich betrachten. Ein Beispiel für die Verschmelzung von physischer und digitaler Sicherheit sind Autodiebe. Sie haben herausgefunden, dass sie eine Naht am Scheinwerfer aufbrechen, eine Verbindung zum Datenbus herstellen und die Nachricht einspeisen können, um Türen zu öffnen und den Motor zu starten.

Der Todesstern war nicht das einzige technische Wunderwerk, das durch einen ungeschützten physikalischen Anschluss zu Fall gebracht wurde. Denn es ist sehr schwierig, Geräte zu entwickeln, die sowohl gegen digitale als auch gegen physische Angriffe geschützt sind.

Hauptakteure: Jedes Unternehmen muss sich der Gefahren bewusst sein.

Erfolgsaussichten: Grundlegende physische Sicherheit ist so einfach wie das Verschließen Ihrer Türen. Echte physische Sicherheit ist bisweilen unmöglich. IT-Abteilungen müssen ein praktisches Gleichgewicht finden, das für ihre Daten funktioniert, und zumindest ihre Anstrengungen verstärken, um physikalischen Angriffen zu widerstehen.

Zuverlässige Datenverarbeitung

Vertrauenswürdige Systeme waren schon immer das Ziel von Entwicklern. Inzwischen haben einige IT-Manager gelernt, dass bessere Architekturen und Praktiken notwendig sind. Denn viele Softwareentwickler tappen in die Falle, wenn der Code auf ihrem Desktop perfekt läuft und sie davon ausgehen, dass dies in der realen Welt immer so sein wird. Einige bekannte Softwarefehler bei Unternehmen wie Southwest Airlines oder EasyJet zeigen, dass auch Code, der die meiste Zeit über gut läuft, spektakulär versagen kann.

Die Herausforderung für IT-Teams besteht darin, diese Probleme zu antizipieren und eine weitere Stabilitätsschicht in ihren Code einzubauen. Einige Systeme wie Datenbanken sind so konzipiert, dass sie sehr zuverlässig arbeiten. Jetzt müssen die Entwickler diesen Ansatz auf die nächste Stufe heben, indem sie noch bessere Schutzmechanismen einbauen. Einige der neueren Ansätze wie Microservices und Serverless Computing bieten zwar einen besseren Schutz, haben aber oft auch ihre eigenen Probleme.

Hauptakteure: Unternehmen wie Fluggesellschaften, die ohne ihre Technologie nicht leben können.

Erfolgsaussichten: Unternehmen, die in der Lage sind, die Zuverlässigkeit zu verbessern und selbst gelegentliche Pannen und Katastrophen zu vermeiden, werden überleben.

WebAssembly

Ein großer Teil der Softwareentwicklung ist dem Ziel gewidmet, die Einfachheit und Geschwindigkeit von nativem Desktop-Code in den Rahmenbedingungen moderner Webbrowser zu duplizieren. Die Ergebnisse sind im Allgemeinen gut, aber sie werden dank des Aufkommens von WebAssembly (Wasm) noch besser.

Diese Technologie eröffnet Entwicklern die Möglichkeit, komplexeren Code zu schreiben, der dem Benutzer anspruchsvollere und flexiblere Schnittstellen bietet. Umfangreiche Tools wie Foto-Editoren und immersivere Umgebungen werden möglich.

Die Technologie öffnet auch die Tür für komplexere, rechenintensive Anwendungen mit ausgefeilteren KI-Modellen und reaktionsschnellerem Code. Tools wie CheerpJ, Wasmer und Cobweb sind nur drei Beispiele für Tools, mit denen Sprachen wie Java, Python und COBOL in die Welt von JavaScript kommen.

Hauptakteure: Teams, die komplexen, reaktiven Code für Remote-Anwender bereitstellen müssen. Wenn ein Großteil der Arbeit auf dem Client-Rechner erledigt wird, kann WebAssembly diese Schicht oft beschleunigen.

Erfolgsaussichten: Die Basis ist vorhanden. Das eigentliche Problem besteht darin, Compiler und Verteilungsmechanismen zu entwickeln, um laufenden Code auf den Rechnern der Benutzer zu installieren. Die größte Herausforderung könnte sein, dass Anwender ausführbaren Code einfach herunterladen und installieren.

Dezentralisierte Identität

Die Idee, unsere Identität aufzuteilen, entwickelt sich auf zwei Ebenen: Auf der einen Seite propagieren Befürworter des Schutzes der Privatsphäre clevere Algorithmen, die gerade genug Informationen preisgeben, um eine Identitätsprüfung zu überstehen, während alles andere über eine Person geheim bleibt. Ein möglicher Algorithmus könnte zum Beispiel ein digitaler Führerschein sein, der garantiert, dass ein Bierkäufer über 18 Jahre alt ist, ohne Geburtsmonat, -tag oder -jahr preiszugeben.

Eine andere Ebene führt in die umgekehrte Richtung: Die Werbeindustrie sucht nach Möglichkeiten, alle unsere Pseudonyme und das halb-anonyme Surfen im Internet miteinander zu verknüpfen. Wenn Sie in einem Kataloggeschäft nach Regenschirmen suchen und dann auf Nachrichtenseiten Werbung für Regenschirme sehen, können Sie diese Entwicklung erkennen.

Hauptakteure: Unternehmen etwa aus dem Gesundheitswesen oder dem Finanzsektor, die mit persönlichen Daten und Angriffen zu tun haben.

Erfolgsaussichten: Die grundlegenden Algorithmen funktionieren gut; die Herausforderung ist der gesellschaftliche Widerstand.

GPUs

Grafikprozessoren wurden zunächst entwickelt, um das Rendering komplexer visueller Szenen zu beschleunigen. In letzter Zeit haben Entwickler jedoch entdeckt, dass die Chips auch Algorithmen beschleunigen können, die nichts mit Spielen oder 3D-Welten zu tun haben. Einige Physiker nutzen GPUs schon seit einiger Zeit für komplexe Simulationen. Auch KI-Entwickler haben sie eingesetzt, um Trainingsdaten zu verarbeiten.

Jetzt beginnen Entwickler damit, allgemeinere Aufgaben wie die Suche in Datenbanken mit Hilfe von GPUs zu beschleunigen. Die Chips glänzen, wenn dieselben Aufgaben zur gleichen Zeit mit riesigen Datenmengen parallel ausgeführt werden müssen. Wird das Problem richtig gelöst ist, können Aufgaben um das 10- bis 1.000-fache beschleunigt werden.

Hauptakteure: Datengetriebene Unternehmen, die sich mit rechenintensiven Herausforderungen wie KI oder komplexen Analysen befassen.

Erfolgsaussichten: Clevere Programmierer nutzen GPUs schon seit Jahren für spezielle Projekte. Jetzt erschließen sie das Potenzial für Probleme, mit denen viele Unternehmen konfrontiert sind.

Grüne Datenverarbeitung

Jeden Tag hören wir Geschichten über riesige neue Rechenzentren mit großen Computern, die Clouds bilden und die Leistung unglaublich komplizierter Algorithmen und Anwendungen der künstlichen Intelligenz freisetzen. Nachdem sich das Gefühl der Ehrfurcht verflüchtigt hat, erschaudern zwei Arten von Menschen: die CFOs, die die Stromrechnung bezahlen müssen, und die Befürworter des Green Computing, die sich Sorgen machen, was dies für die Umwelt bedeutet. Beide Gruppen haben ein gemeinsames Ziel: den Stromverbrauch zu verringern.

Es hat sich herausgestellt, dass viele Algorithmen verbesserungswürdig sind und das treibt den Vorstoß in Richtung Green Computing voran. Muss der Algorithmus für maschinelles Lernen wirklich ein Terabyte historischer Daten untersuchen oder könnte er die gleichen Ergebnisse mit einigen hundert Gigabyte erzielen? Oder vielleicht nur mit zehn oder fünf? Das neue Ziel für Entwickler besteht darin, vergleichbare Ergebnisse mit viel weniger Strom zu erzielen und so das Budget sowie den Planeten zu schonen.

Hauptakteure: Alle, denen die Umwelt am Herzen liegt - oder die eine Stromrechnung bezahlen.

Erfolgsaussichten: Programmierer wurden durch das Mooresche Gesetz vor den wahren Kosten der Ausführung ihres Codes geschützt. Es gibt viel Raum für besseren Code, der Strom spart.

Dezentrales Finanzwesen

Manche nennen es eine BlockchainBlockchain, andere bevorzugen den banaleren Ausdruck "Distributed Ledger". In jedem Fall besteht die Herausforderung darin, eine gemeinsame Version der Wahrheit zu erstellen - auch wenn nicht alle Beteiligten damit einverstanden sind. Alles zu Blockchain auf CIO.de

Diese "Wahrheit" entwickelt sich weiter, wenn jeder Ereignisse oder Transaktionen in die gemeinsame, verteilte Liste einträgt. Krypto hat den Ansatz berühmt gemacht, aber solche dezentralen Ansätze müssen nicht auf Währungen beschränkt sein.

Das Potenzial des dezentralisierten Finanzwesens beruht zum Teil darauf, dass mehrere Unternehmen oder Gruppen zusammenarbeiten müssen, obwohl sie einander nicht wirklich vertrauen. Die Transaktionskette, die im verteilten Hauptbuch gespeichert ist, könnte Versicherungszahlungen, Autokäufe oder eine beliebige Anzahl von Vermögenswerten verfolgen. Solange alle Parteien das Hauptbuch als wahr anerkennen, können die einzelnen Transaktionen garantiert werden.

Hauptakteure: Jeder, der seine Arbeit mit einem anderen Unternehmen oder einer anderen Einrichtung sowohl vertrauenswürdig als auch verifizierbar machen muss. Unternehmen, die mit digitalen Elementen arbeiten, die mehr Authentizität und vielleicht eine künstliche Verknappung benötigen.

Erfolgsaussichten: Es gibt sie bereits, aber nur in der Welt der Kryptowährungen. Konservativere Unternehmen ziehen nur langsam nach. (ajf/jd)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.com.

Zur Startseite