Identity Threat Defense

Vier falsche Gesichter: Wie generative KI das Social Engineering verändert

Share with your network!

E-Mail ist der Bedrohungsvektor Nr. 1. Bei Cybersicherheitsschulungen müssen wir aber auch verstärkt über die Rolle von sozialen Netzwerken, Textnachrichten und Sprachanrufen informieren. Warum? Weil generative KI (GenAI) das Social Engineering verändert und Bedrohungsakteure damit Personen oder Persönlichkeiten nachahmen.  

Angreifer können mit generativer KI Bilder, Texte, Audio-Nachrichten und Videos erzeugen und großangelegte Betrugsversuche starten, um personenbezogene, finanzielle oder vertrauliche Daten zu stehlen. Sie können ihre Schritte automatisieren, die Erfolgswahrscheinlichkeit erhöhen sowie Angriffe skalieren und auf verschiedenen Kanälen wie Messaging-Apps, Social-Media-Plattformen, per Telefonanruf und natürlich E-Mail verteilen. 

Laut Recherchen für den neuen State of the Phish-Bericht von Proofpoint haben sich 58 % der Personen, die 2023 riskant handelten, wissentlich in Gefahr begeben. Dies führt uns zu einer wichtigen Frage: Wenn Sie per Instant Messaging, Direktnachricht, Videobotschaft oder E-Mail eine Nachricht erhalten, können Sie dann zu 100 % sicher sein, dass es sich beim Absender tatsächlich um die Person handelt, die sie vorgibt zu sein? Nicht in einer Welt, in der Angreifer generative KI nutzen. 

In diesem Beitrag gehen wir auf vier Möglichkeiten ein, wie Bedrohungsakteure diese leistungsstarke Technologie nutzen können, um Menschen zu täuschen. 

  1. Raffinierter Konversationsbetrug 
  2. Realistischer Deepfake-Content 
  3. Personalisierte BEC-Angriffe (Business Email Compromise) 
  4. Automatisierte gefälschte Profile und Beiträge  

1: Raffinierter Konversationsbetrug 

Bedrohungsakteure erzeugen mit generativer KI sehr raffinierte betrügerische Konversationen, die menschliche Interaktionen nachahmen. Dabei helfen ihnen Modelle für die Verarbeitung natürlicher Sprache (NLP), personalisierte Nachrichten zu generieren. Zu den beliebten NLP-Modellen gehören rekurrente neuronale Netze (RNN) auf Transformer-Basis (wie GPT-3) oder mit sequenzieller Verarbeitung. 

Die Köder der Angreifer variieren zwar, aber alle zielen darauf ab, eine Konversation mit dem Empfänger zu eröffnen und sein Vertrauen zu gewinnen. Bedrohungsakteure können zur Vertrauensbildung über Wochen oder Monate mit einer Person interagieren, um sie zu überreden, Geld zu überweisen, in eine gefälschte Kryptoplattform zu investieren oder finanzielle Informationen preiszugeben.    

Funktionsweise  

Bedrohungsakteure sammeln große Mengen textbasierter Konversationen aus Quellen wie sozialen Netzwerken, Messaging-Apps, Chat-Protokollen, Datenschutzverletzungen und Kundendienstinteraktionen. Sie trainieren damit NLP-Modelle, um anhand von Schlüsselbegriffen sehr menschlich wirkende Texte zu generieren. Die Modelle lernen, Muster zu erkennen, Kontext zu verstehen und sehr natürlich klingende Antworten zu geben.  

Sobald die Bedrohungsakteure ein NLP-Modell ausreichend trainiert haben, können sie damit textbasierte Nachrichten generieren, um Personen in betrügerischer Absicht zu kontaktieren. In den Konversationen lassen sich bestimmte Personentypen oder Sprachmuster imitieren oder Antworten generieren, die in gängigen Betrugsszenarien zum Einsatz kommen. Dadurch fällt es Personen in sozialen Netzwerken wie Instagram, in Messaging-Apps wie WhatsApp und auf Dating-Websites wie Tinder sehr schwer, zwischen seriöser und gefälschter Kommunikation zu unterscheiden. 

Wie können Sie diese Risiken mit Proofpoint minimieren? 

Proofpoint Security Awareness liefert zeitnah Schulungsinhalte zu Bedrohungstrends. Dazu gehört eine zweiwöchige Kampagne mit Schulungen wie „Attack Spotlight: Konversationsbetrug“, damit Anwender lernen, wie sie diese Betrugsversuche erkennen und verhindern. 

2: Realistischer Deepfake-Content 

Bedrohungsakteure können mit generativer KI Deepfakes erzeugen, die zeigen, wie Personen Dinge sagen oder tun, die sie in Wirklichkeit nie gesagt oder getan haben. Angreifer erstellen mithilfe hochentwickelter Machine Learning-Modelle (ML) sehr realistisch wirkende gefälschte Inhalte, die das Aussehen, die Stimme oder Verhaltensweisen einer Person nachahmen.  

Funktionsweise  

Bedrohungsakteure sammeln Daten wie Bilder, Audiomitschnitte oder Videos, in denen die nachzuahmende Person vorkommt. Anschließend trainieren sie damit das GenAI-Modell, um gefälschte Inhalte wie Bilder oder Videos zu generieren. Dabei kann das Modell die Authentizität seiner eigenen Inhalte analysieren.  

Ein beliebtes Modell ist Generative Adversarial Network (GAN). Es kann nach und nach immer überzeugendere Deepfakes generieren, weil es seine Methoden verfeinert und optimiert. So kann es beispielsweise Modellparameter anpassen, die Menge der Trainingsdaten erweitern oder die Trainingsprozesse optimieren. Nachbearbeitungstechniken lassen Deepfakes noch realistischer wirken, beispielsweise durch die Anpassung von Beleuchtung und Farben oder das Hinzufügen kleiner Unvollkommenheiten.  

Deepfakes können in böswilligen Szenarien sehr wirksame Werkzeuge sein. So ist es Angreifern beispielsweise möglich, Verwandte mit Sprach-Deepfakes nachzuahmen. Ein Beispiel ist eine beliebte Telefonbetrugsmasche, die auch als Enkeltrick bekannt ist. Dabei gibt sich ein krimineller Akteur als Enkel aus und bittet um Geld wegen eines Notfalls.  

Ähnlich wie sein Fingerabdruck ist auch die Stimme eines Menschen einzigartig. Bedrohungsakteure können biometrische Daten aus kleinen Medienschnipseln wie Sprachnachrichten, Videoaufnahmen oder Podcasts extrahieren, um die Stimme einer Person mit generativer KI zu imitieren.  

Wie können Sie diese Risiken mit Proofpoint minimieren? 

Wir bieten eine umfangreiche Sensibilisierungskampagne zu Deepfake-Trends mit kleinen Videos, einem interaktiven Spiel und einem Artikel zu den drei wichtigsten Punkten an. Darüber hinaus geben wir zeitnah Bedrohungswarnmeldungen heraus, wenn Proofpoint-Analysten einen alarmierenden Deepfake-Angriff erkennen, wie kürzlich bei einem Finanzbetrug in Hongkong im ersten Quartal

3: Personalisierte BEC-Angriffe 

In unserem State of the Phish-Bericht 2024 haben wir darauf hingewiesen, dass Bedrohungsakteure für BEC-Angriffe insbesondere in nicht-englischsprachigen Ländern wahrscheinlich auf generative KI setzen. Das betrifft besonders Länder wie Japan, Korea und die Vereinigten Arabischen Emirate, die Angreifer in der Vergangenheit wegen Sprachbarrieren, kulturellen Unterschieden oder mangelnder Transparenz gemieden haben.  

BEC-Betrugsversuche beinhalten in der Regel Nachahmungstaktiken. Dabei geben sich Bedrohungsakteure als vertrauenswürdige Personen aus (z. B. als Führungskräfte in Unternehmen), um Angestellte zu gefährlichen Aktionen wie Geldüberweisungen oder der Preisgabe vertraulicher Daten zu überreden.  

Bedrohungsakteure können diese Angriffe jetzt mit generativer KI optimieren, indem sie beispielsweise überzeugende Texte in vielen Sprachen schreiben, die Qualität der Nachrichten verbessern und sie zudem schneller generieren.  

Funktionsweise 

GenAI lernt Muster und Beziehungen anhand von Daten, die von Menschen erstellten Content enthalten und mit entsprechenden Labeln versehen wurden. Diese Informationen werden anschließend genutzt, um neue Inhalte zu generieren. Mit generativer KI können Angreifer Social-Engineering-Nachrichten schneller und automatisch erstellen und für die jeweiligen Empfänger in sehr überzeugender Form personalisieren.  

Auf diese Weise ist es ihnen zum Beispiel möglich, E-Mails und Texte zu schreiben, die den Stil und Ton sowie die Unterschrift einer vorgeblichen Person nachahmen. Mit dem KI-Modell können sie Phishing-Nachrichten automatisch, schnell, in großer Zahl und speziell auf die angegriffenen Empfänger zugeschnitten generieren. Dadurch lässt sich die Authentizität der Nachrichten nur noch schwer überprüfen.  

Deepfakes können auch hier eine Rolle spielen. Bedrohungsakteure können ihren betrügerischen Kontaktversuchen Glaubwürdigkeit verleihen, indem sie mit gefälschten Sprachnachrichten, Sprachanrufen oder Videonachrichten nachfassen, in denen ein Vorgesetzter im Unternehmen Anweisungen gibt oder Transaktionen autorisiert. 

Wie können Sie diese Risiken mit Proofpoint minimieren? 

Wir konzentrieren uns auf die Sensibilisierung für BEC-Angriffe und bieten hunderte Content-Beispiele von interaktiven Videos über Live-Action-Humor bis hin zu einminütigen Animationen. Proofpoint-Bedrohungsanalysten informieren in unseren wöchentlichen Bedrohungswarnmeldungen über reale BEC-Angriffe wie Umleitungen von Gehaltszahlungen und gefälschte Rechnungen.  

4: Automatisierte gefälschte Profile und Beiträge  

Wir sind darauf eingegangen, wie generative KI realistische Bilder, Audio-Nachrichten und Videos von realen Personen generiert. Kriminelle Akteure können mit KI-Modellen auch falsche Identitäten erzeugen, um Personen in sozialen Netzwerken und auf Nachrichtenplattformen nachzuahmen, und die Erstellung falscher Konten, Artikel, Grafiken, Kommentare und Posts in großer Zahl automatisieren.  

Funktionsweise  

GenAI-Modelle können mit minimalem Trainingsaufwand öffentlich verfügbare Daten sowie Social-Media-Profile analysieren und diese Informationen für gezielte Anwendungsszenarien anpassen. Die Modelle bieten folgende Möglichkeiten: 

  • Nachahmen des Stils und Tons seriöser Kommunikationen aus vertrauenswürdigen Quellen 
  • Übersetzen und Lokalisieren von Text in mehrere Sprachen 
  • Erledigen wiederholt anfallender Aufgaben, z. B. auf Nachrichten antworten  

Bedrohungsakteuren ist es mithilfe gefälschter Identitäten möglich, die Interessen der Zielpersonen aufzugreifen. So könnten sie beispielsweise auf Plattformen wie Facebook, Instagram, Website-Foren und Dating-Apps automatisch Profile erstellen oder KI-Modelle nutzen, um Konversationen in sozialen Netzwerken schnell zu verarbeiten und automatisch überzeugende Antworten zu schreiben. Damit sollen umfangreiche Beziehungen aufgebaut werden, um später die Schwachstellen und das Vertrauen der betroffenen Personen auszunutzen.  

Mit KI können Bedrohungsakteure diese schädlichen Aktivitäten in großem Rahmen betreiben und dadurch ihre Erfolgschancen bei der Verbreitung von Falschinformationen und der Beeinflussung von Online-Diskussionen erhöhen. 

Wie können Sie diese Risiken mit Proofpoint minimieren? 

Proofpoint Security Awareness bietet kontinuierlich Schulungen zu Social Engineering sowie zeitnahe Analystenwarnmeldungen bei Nachahmungsfällen in sozialen Netzwerken. Unser Material beinhaltet hilfreiche Artikel und Videos dazu, wie Sie Bedrohungsakteuren aus dem Weg gehen und ihnen keine Chance geben, sowie wöchentliche Bedrohungswarnmeldungen über die neuesten GitHub-, LinkedIn- und X-Angriffe.  

Kostenlos verfügbar: Unser informatives Kit zu den Gefahren durch generative KI 

In all diesen Szenarien geben sich kriminelle Akteure mit generativer KI realistisch und überzeugend als jemand aus, der sie nicht sind. Sie manipulieren die menschliche Psyche mit Social Engineering und verleiten Menschen dadurch zu riskanten Handlungen, z. B. zum Anklicken schädlicher Links, zur Preisgabe personenbezogener Informationen oder zur Überweisung von Geldern.  

Es kommt darauf an, das Thema Sicherheit differenziert zu vermitteln und sich immer über die neuesten Bedrohungen und Abwehrmaßnahmen zu informieren. Für die Aufklärung der Anwender über die GenAI-Risiken ist ein vielschichtiger Security-Awarenes-Ansatz erforderlich. Schulungen sind besonders wichtig für Mitarbeiter, die mit finanziellen Transaktionen oder vertraulichen Daten zu tun haben. 

Wir bei Proofpoint nutzen unsere branchenweit führenden Bedrohungsdaten, um Sicherheitsschulungen, Materialien und Phishing-Simulationen zu realen Bedrohungen zu entwickeln. Daneben bieten wir Schulungen über ein adaptives Schulungsframework, das strukturiert vorgeht – von einfachen Verhaltensweisen bis hin zu fortgeschrittenen Konzepten. Mit diesem Ansatz stellen wir sicher, dass die Menschen zu den Themen und in der Komplexitätsstufe geschult werden, die sich für ihre Bedürfnisse am besten eignen. 

Trendthemen wie Deepfakes und Konversationsbetrug behandeln wir auch in unserem kostenlosen Kit zum Cybersecurity-Awareness-Monat 2024, das Sie sich auf keinen Fall entgehen lassen sollten.