Dr. Martin J. Krämer, CISO Advisor bei KnowBe4
Künstliche Intelligenz verändert die Bedrohungslandschaft grundlegend, besonders im Bereich Social Engineering. Was früher oft an auffälligen Rechtschreibfehlern, unnatürlichen Formulierungen oder erkennbaren Manipulationen zu durchschauen war, wirkt heute professionell, individuell zugeschnitten und nahezu fehlerfrei. Texte, Stimmen und sogar Videos lassen sich innerhalb weniger Minuten täuschend echt erstellen. Das macht betrügerische Kontaktaufnahmen glaubwürdiger und erhöht das Risiko für Unternehmen ebenso wie für Privatpersonen enorm.
Sicherheitsbehörden warnen inzwischen vor einer neuen Welle KI-gestützter Social Engineering-Angriffe. Auch aktuelle Analysen von ThreatDown bestätigen diese Entwicklung: Kriminelle nutzen generative KI, um überzeugende Phishing-E-Mails zu erstellen, die frei von typischen Grammatik- oder Rechtschreibfehlern sind. Gleichzeitig ermöglichen Deepfake-Technologien die Imitation von Stimmen oder Videobotschaften, etwa um sich als Vorgesetzte, IT-Mitarbeitende oder Geschäftspartner auszugeben. Gerade in stressigen Situationen und unter Zeitdruck sind solche Angriffstechniken besonders wirksam. Technische Schutzmaßnahmen geraten dabei zunehmend an ihre Grenzen. Selbst sorgfältig implementierte Sicherheitslösungen können nicht vollständig verhindern, dass Angreifer Mitarbeitende kontaktieren und gezielt manipulieren. Der Mensch bleibt damit eine der zentralen Angriffsflächen moderner Cyberangriffe.
Professionalisierung durch KI: Neue Qualität von Phishing und Deepfakes
Angreifer haben KI längst in ihre Werkzeuge integriert. Generative Modelle erlauben es, täuschend echte Phishing-Nachrichten in unterschiedlichen Sprachen zu verfassen – selbst ohne fundierte Sprachkenntnisse. Bekannte Marken, glaubwürdige Szenarien wie angeblich sichere Dokumentenfreigaben oder interne IT-Hinweise erhöhen zusätzlich die Erfolgswahrscheinlichkeit. Die Zeiten, in denen sich Phishing-Mails leicht an schlechter Grammatik erkennen ließen, sind damit weitgehend vorbei. Eine aktuelle Umfrage von KnowBe4 zeigt, dass Mitarbeitende heute vor allem psychologische Taktiken als Warnsignal wahrnehmen: 34 Prozent der Befragten nennen das Erzeugen von Dringlichkeit als wichtigsten Hinweis auf eine betrügerische E-Mail – noch vor unbekannten Absenderadressen (23 %), Anfragen nach sensiblen Informationen (23 %) oder Rechtschreib- und Grammatikfehlern (20 %).
Zudem kommen zunehmend technische Methoden zum Einsatz, um Angriffe noch zielgerichteter zu gestalten. So können etwa gefälschte Login-Seiten erstellt werden, die optisch kaum von legitimen Google- oder OneDrive-Anmeldemasken zu unterscheiden sind und sogar an die jeweilige Unternehmensdomain angepasst werden.
Social Engineering als Türöffner für Kriminelle
Vor diesem Hintergrund überrascht es nicht, dass Social Engineering weiterhin einer der wichtigsten Angriffsvektoren für Cyberangriffe darstellt. Auch im Jahr 2025 blieb diese Methode laut aktuellen Analysen führend beim initialen Zugriff. Für 2026 wird erwartet, dass KI-getriebene Social-Engineering-Operationen weiter skalieren und sich zur dominierenden Form dieser Angriffe entwickeln.
Für Organisationen müssen daher den Fokus verstärkt auf Resilienz gegenüber menschlicher Manipulation legen. Neben technischen Schutzmaßnahmen gewinnen kontinuierliche Sensibilisierung, realitätsnahe Trainingsszenarien und eine gelebt Sicherheitskultur weiter an Bedeutung. Ziel ist es, Mitarbeitende in die Lage zu versetzen, auch äußerst professionell gestaltete Täuschungen zu erkennen und die richtigen Entscheidungen zu treffen.



