Warnung vor Enkeltrick mit künstlicher Intelligenz

2304_MartinKraemer_KnowBe4

Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4

Die Betrugsmasche, dass ein vermeintliches Enkelkind bei den Großeltern anruft und aufgrund einer Krisensituation finanzielle Unterstützung braucht, ist bereits bekannt. Doch was, wenn jetzt nicht mehr nur die ältere Generation Ziel dieser Angriffstaktik ist, sondern jeder darauf hereinfallen kann: Betrüger setzen nun künstliche Intelligenz ein, um die Stimmen von Familienangehörigen nachzuahmen.

Es beginnt mit einem Anruf. Wird dieser angenommen geben sich die Betrüger als Familienangehörige oder Bekannte des Opfers aus. Sie klingen panisch und schildern eine vermeintliche Krisensituation, in der sie sich befinden. Meist ist es etwas wie: „Ich hatte einen Unfall oder bin im Gefängnis“, oder „Ich wurde beklaut und kann nicht nach Hause kommen“. Darauf folgt dann die Bitte, dass man ihnen Geld überweist, um das Problem zu lösen. Und dem verzweifelten Hilferuf folgen auch sehr viele, vor allem ältere Menschen, die teilweise gar nicht mehr in der Lage sind rational zu denken und den Betrug zu durchschauen. Die Telefonnummern besorgen sich die kriminellen Gangs aus Telefonbüchern oder einschlägig bekannten Foren.

Mit den neuen KI-Technologien ist jedoch jede Altersgruppe gefährdet auf diese Masche hereinzufallen. Die Betrüger nutzen Stimmerkennungssoftware, um die Stimmen von Familienangehörigen und Bekannten zu imitieren und ihre Opfer davon zu überzeugen, dass tatsächlich die in Frage kommende Person am Telefon ist. Ein Stimmverzerrer, kombiniert mit einer künstlichen Intelligenz sorgt dafür, dass das vom Betrüger ins Telefon gesprochene auf der anderen Seite so klingt wie die imitierte Person.

Damit ein derartiges Stimmprofil erstellt werden kann, benötigt die KI nur eine kurze Tonspur auf der die zu imitierende Person ein paar Sätze spricht. Diese sind in der heutigen Zeit und Welt von Social Media einfacher zu finden und somit auch zu missbrauchen als jemals zuvor. Egal ob Instagram, TikTok, Facebook, etc.: Wer Videos oder reine Audios von sich selbst hochlädt, in denen gesprochen wird, setzt sich der Gefahr aus nachgeahmt zu werden.

Wie man solche Betrugsversuche erkennt

Auch wenn die Stimme am Telefon sich genau wie das eigene Kind oder ein Verwandter anhört, ist die KI noch nicht perfekt. So könnte man, wenn man genau auf die Stimme achtet, kleine Unregelmäßigkeiten erkennen, dass es sich womöglich um einen Betrüger handelt. Auch auf die Nummer, von der aus angerufen wird sollte geachtet und mit gezielten Nachfragen eine plausible Erklärung eingeholt werden. Außerdem kann zur Absicherung immer noch die in Frage stehende Person an- oder zurückgerufen und so der Schwindel aufgedeckt werden.

Wer dennoch Opfer eines solchen Betrugs oder des Versuches wird, sollte dies unbedingt an die zuständigen Behörden weiterleiten. Mehr über Phishing per Telefonanruf, also Vishing erfahren Sie hier: https://blog.knowbe4.com/topic/vishing