9 Wege

Wie Hacker mit Machine Learning angreifen

26.09.2022
Von 


Doug Drinkwater ist ein erfahrener Tech- und Security-Journalist. Er hat unter anderem schon für CIO, CSO, InfoWorld, Macworld, Mashable, PC World und The Week geschrieben.
Machine-Learning-Algorithmen können Security-Lösungen verbessern und Sicherheitsteams unterstützen. Oder kriminellen Hackern dabei helfen, größere und komplexere Attacken zu fahren. Lesen Sie, wie.
Auch Cyberkriminelle setzen längst auf künstliche Intelligenz beziehungsweise Machine Learning, um ihre Ziele zu erreichen.
Auch Cyberkriminelle setzen längst auf künstliche Intelligenz beziehungsweise Machine Learning, um ihre Ziele zu erreichen.
Foto: ProStockStudio - shutterstock.com

Maschinelles Lernen beziehungsweise künstliche Intelligenz (KI) entwickelt sich zu einer Kerntechnologie im Bereich Threat Detection and Response. Die Fähigkeit, sich im laufenden Betrieb automatisiert an veränderte Bedrohungsszenarien anzupassen, kann Sicherheitsteams einen Vorteil verschaffen. Allerdings setzen auch Cyberkriminelle verstärkt auf Machine Learning und KI, um ihre Attacken auszuweiten, Sicherheitskontrollen zu umgehen und neue Schwachstellen zu finden - und zwar in einem bis dato nie dagewesenen Tempo und mit potenziell verheerenden Folgen.

9 Wege zu Machine-Learning-gestützten Cyberangriffen

Wir stellen Ihnen die neun häufigsten Methoden vor, mit denen sich kriminelle Angreifer die Machine-Learning-Technologie zu Nutze machen.

1. Spam

Verteidiger setzen schon lange auf Machine Learning um Spam zu erkennen, wie auch Fernando Montenegro, Analyst bei Omdia, weiß: "Spam-Prävention ist der Use Case Nummer Eins für maschinelles Lernen."

Wenn der eingesetzte Spam-Filter jedoch mit vordefinierten Regeln funktioniere oder eine Art Score erstelle, könne das potenziell von Angreifern ausgenutzt werden, um ihren eigenen Attacken zu mehr Erfolg zu verhelfen, warnt der Analyst: "Man muss nur lange genug rumprobieren, dann kann man das zugrundeliegende Modell rekonstruieren und einen maßgeschneiderten Angriff fahren, der dieses Modell umgeht." Dabei seien nicht nur Spam-Filter anfällig: Jede Security-Bewertung oder anderer Output, den ein Sicherheitsanbieter liefert, kann laut Montenegro potenziell missbraucht werden: "Nicht alle haben dieses Problem, aber wenn man nicht aufpasst, kann ein hilfreicher Output die Grundlage für maliziöse Aktivitäten liefern."

2. Optimiertes Phishing

Angreifer nutzen nicht nur Sicherheitstools auf ML-Basis, um zu testen, ob ihre Nachrichten Spam-Filter umgehen können. Sie nutzen Machine Learning auch, um diese E-Mails zu erstellen, wie Adam Malone, Partner bei der Unternehmensberatung EY erklärt: "Sie werben in kriminellen Foren mit speziellen Services auf Basis von maschinellem Lernen und nutzen diese, um bessere Phishing-E-Mails und gefälschte Personas für Betrugskampagnen zu erstellen. Dabei handelt es sich in der Regel leider nicht bloß um Marketing - die kriminellen ML-Dienste funktionieren definitiv besser."

Mithilfe von maschinellem Lernen könnten die Angreifer Phishing-E-Mails auf kreative Weise optimieren, so dass sie nicht als Spam erkannt werden und möglichst viel Engagement in Form von Klicks auslösen. Dabei beschränkten sich die Cyberkriminellen nicht nur auf den E-Mail-Text, so der Berater: "Mithilfe von KI können realistisch aussehende Fotos, Social-Media-Profile und andere Materialien erstellt werden, um die Kommunikation so legitim wie möglich erscheinen zu lassen."

3. Passwörter knacken

Cyberkriminelle nutzen maschinelles Lernen auch, um Passwörter zu knacken, wie Malone erläutert: "Das beweisen zahlreiche Systeme, die dafür konzipiert sind Passwörter zu erraten und dabei in Sachen Frequenz und Erfolgsrate überzeugen. Cyberkriminelle erstellen inzwischen wesentlich bessere Dictionaries und werden immer gewiefter darin, gestohlene Hashes zu hacken."

Die Kriminellen nutzten auch maschinelles Lernen, um Sicherheitskontrollen zu identifizieren und Passwörter mit weniger Versuchen "erraten" zu können. Damit erhöhen die Cybergangs die Erfolgswahrscheinlichkeit ihrer Attacken, warnt der Berater.

4. Deep Fakes

Heutige Deep-Fake-Tools erschaffen täuschend echte Video- oder Audiodateien, die teilweise nur schwer als Fälschung zu entlarven sind. "Die Möglichkeit, die Stimme oder das Gesicht einer Person zu simulieren, ist für Angreifer sehr nützlich", sagt Omdia-Analyst Montenegro. Tatsächlich wurden in den letzten Jahren einige hochkarätige Fälle bekannt, in denen Deep Fakes Unternehmen mitunter Millionenbeträge gekostet haben.

Um realistisch aussehende Fotos, Benutzerprofile und Phishing-E-Mails zu erstellen und ihre Nachrichten glaubwürdiger erscheinen zu lassen, setzen inzwischen mehr kriminelle Akteure auf KI. Das ist ein einträgliches Business: Nach Angaben des FBI haben Business-E-Mail-Compromise-Kampagnen seit dem Jahr 2016 Schäden in Höhe von mehr als 43 Milliarden Dollar verursacht.

5. Sicherheitstools neutralisieren

Viele aktuelle Sicherheitstools nutzen eine Form von künstlicher Intelligenz oder Machine Learning. Antivirus-Lösungen beispielsweise suchen zunehmend über die grundlegenden Signaturen hinaus nach verdächtigen Verhaltensweisen.

"Alle Systeme, die online verfügbar sind - insbesondere Open Source - können von Cyberkriminellen ausgenutzt werden", gibt Murat Kantarcioglu, Informatik-Professor an der University of Texas zu bedenken. Angreifer könnten die Tools nutzen, um ihre Malware so lange zu optimieren, bis sie sich der Erkennung entziehen kann: "KI-Modelle haben viele blinde Flecken."

6. Aufklärungsarbeit

Maschinelles Lernen kann von Cyberkriminellen zur Aufklärung eingesetzt werden, um Traffic-Muster, Verteidigungsmaßnahmen und potenziellen Schwachstellen auszukundschaften. Das ist jedoch nicht einfach zu bewerkstelligen, wie Kantarcioglu erklärt: "Man braucht einige Fähigkeiten, um sich KI zu Nutze zu machen. Meiner Meinung nach sind es vor allem staatlich-gelenkte Akteure, die solche Techniken einsetzen."

Wenn die Technologie jedoch irgendwann kommerzialisiert sei und als Service im Cybercrime-Untergrund angeboten werde, könnte sie einem breiteren Publikum zugänglich werden, meint Allie Mellen, Analystin bei Forrester: "Das könnte auch passieren, wenn ein nationalstaatlicher Bedrohungsakteur ein bestimmtes Toolkit entwickelt, das maschinelles Lernen einsetzt und es der kriminellen Gemeinschaft zur Verfügung stellt. Aber die Einstiegshürden bleiben hoch: Angreifer, die solche Tools nutzen wollen, müssen ML-Fachexpertise mitbringen."

7. Autonome Agenten

Wenn ein Unternehmen merkt, dass es angegriffen wird, und den Internetzugang zu den betroffenen Systemen sperrt, kann Malware möglicherweise keine Verbindung zu den Command-and-Control-Servern herstellen, um Anweisungen zu erhalten.

"Dem möchten Cyberkriminelle mit intelligenten Machine-Learning-Modellen entgegenwirken, die die Funktion der Malware auch dann sicherstellen, wenn keine direkte Kontrolle möglich ist. Für 'herkömmliche' kriminelle Hacker ist das jedoch nicht relevant", gibt Kantarcioglu vorsichtig Entwarnung.

8. AI Poisoning

Angreifer können ML-Modelle austricksen, indem sie sie mit neuen Informationen füttern - also den Trainingsdatensatz manipulieren: "Die Datensätze könnten zum Beispiel absichtlich verfälscht werden", meint Alexey Rubtsov, Senior Research Associate beim Global Risk Institute.

Dies sei vergleichbar mit der Art und Weise, wie Microsofts Chatbot Tay im Jahr 2016 "beigebracht" wurde, sich rassistisch zu äußern. Der gleiche Ansatz lasse sich verwenden, um einem System beizubringen, eine bestimmte Art von Malware sei sicher oder ein bestimmtes Bot-Verhalten völlig normal, so Rubtsov.

9. AI Fuzzing

Seriöse Softwareentwickler und Penetration Tester verwenden Fuzzing-Lösungen, um zufällige Inputs zu generieren und auf diese Art und Weise Systeme zu testen oder Schwachstellen zu finden. Auch dabei kommt inzwischen häufig maschinelles Lernen zum Zug, etwa um spezifischere und organisierte Inputs zu generieren. Das macht Fuzzing Tools für Unternehmen nützlich, aber eben auch für Cyberkriminelle.

"Deshalb ist grundlegende Cybersicherheitshygiene in Form von Patches, Anti-Phishing-Schulungen und Mikrosegmentierung nach wie vor von entscheidender Bedeutung ", so Forrester-Analystin Mellen. "Es gilt, mehrere Hindernisse zu errichten und nicht nur ein einziges, das die Angreifer am Ende zu ihrem Vorteil nutzen."

ML-Hacker - die gute Nachricht

Investitionen in Machine Learning erfordern ein hohes Maß an Fachwissen, das im Moment knapp ist. Außerdem gibt es für Angreifer in der Regel einfachere und leichtere Möglichkeiten, wie Mellen weiß: "Es gibt viele 'low hanging fruits' und andere Möglichkeiten, Geld zu verdienen - ohne ML und KI für Cyberangriffe zu nutzen. Meiner Erfahrung nach machen kriminelle Hacker in den allermeisten Fällen keinen Gebrauch davon. Allerdings könnte sich das in Zukunft ändern, wenn die Unternehmen ihre Verteidigungsmaßnahmen weiter verbessern und Kriminelle wie Nationalstaaten weiterhin in Cyberangriffe investieren." (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CSO Online.