Mit Machine Learning gehackt?

Wie maschinelles Lernen zum Verhängnis wird



Doug Drinkwater ist ein erfahrener Tech- und Security-Journalist. Er hat unter anderem schon für CIO, CSO, InfoWorld, Macworld, Mashable, PC World und The Week geschrieben.


Florian beschäftigt sich mit vielen Themen rund um Technologie und Management. Daneben betätigt er sich auch in sozialen Netzen.

3. Phishing

Eines der offensichtlicheren Anwendungsfelder von kriminell motiviertem Machine Learning istSocial Engineering. Mit Hilfe von Algorithmen könnte das in Zukunft deutlich smarter ablaufen. Speziell die Technologie des maschinellen Lernens könnte Spear-Phishing-Attacken auf hochrangige Ziele - beispielsweise mit Hilfe von NLP-Algorithmen - deutlich einfacher machen und darüber hinaus den gesamten, zugrundeliegenden Prozess automatisieren.

Auf der Black Hat USA im Jahr 2016 präsentierten die Sicherheitsforscher John Seymour und Philip Tully, wie sie ein rekurrentes, neuronales Netzwerk dazu nutzten, Phishing-PostsPhishing-Posts auf Twitter an ganz bestimmte Zielgruppen "auszuliefern". Dazu trainierten die Forscher das Netzwerk mit Hilfe einer Spear-Phishing-Pentesting-Datenbank. Das Ergebnis war bemerkenswert effektiv: Im Rahmen eines Tests mit 90 Usern lieferte das Framework eine Erfolgsquote zwischen 30 und 60 Prozent. Das klingt vielleicht nach wenig, ist aber ein gewaltiger Fortschritt im Vergleich zu manuell angestoßenen Phishing-Versuchen. Alles zu Phishing auf CIO.de

4. Threat Intelligence

Geht es umMachine LearningMachine Learning, ist Threat Intelligence ein zweischneidiges Schwert. Einerseits steht außer Frage, dass die Technologie im Zeitalter der IT-Fehlalarme maßgeblich bei der Identifizierung von Bedrohungen und der Automatisierung repetitiver Aufgaben unterstützen kann. Alles zu Machine Learning auf CIO.de

Andererseits steht aber auch die Befürchtung im Raum, dass kriminelle Hacker sich an die neuen Gegebenheiten allzu leicht anpassen könnten. So könnte ein Cyberkrimineller eine IT-Umgebung mit Fehlalarmen im Überfluss bombardieren, um eine Neukalibrierung des Systems zu erzwingen. Wenn das geschieht, könnte der Angreifer eine "echte" Attacke starten und so das ML-getriebene Abwehrsystem umgehen.

5. Unbefugter Zugriff

Bereits im Jahr 2012 wurde von Sicherheitsforschern ein Beispiel für einen Hackerangriff mit Machine Learningveröffentlicht. Die Wissenschaftler nutzten "Support vector machines", um ein System zum Einsturz zu bringen, das auf Grundlage von reCaptcha-Bildern lief.

In der Folge wurden die Captcha-Mechanismen grundlegend überarbeitet - nur um ein weiteres Mal von denselben Forschern geknackt zu werden, diesmal mit Hilfe von Deep Learning.

6. ML-Direkteinspritzung

Eine wesentlich simplere - aber nicht weniger effektive - Methode, maschinelles Lernen für einen Cyberangriff zu nutzen, ist die Infizierung der ML-Engine selbst. Ganz ähnlich also, wie kriminelle Hacker Antivirus-Lösungen außer Kraft setzen.

Das Vorgehen ist dabei denkbar einfach: Das Machine-Learning-Modell lernt aus den eingegebenen Daten. Wenn dieser Datenpool kompromittiert ist, ist es auch der daraus resultierende Output. Wissenschaftler der Universität von New Yorkhaben bereits demonstriert, wie sich konvolutionale neuronale Netze mit Hintertüren ausstatten lassen, um solche gefälschten Daten zu injizieren.

Dieser Artikel basiert auf einem Beitrag unserer US-Schwesterpublikation CSO Online.

Zur Startseite