Cyberkriminelle nutzen Hype um OpenClaw für Verbreitung von Malware

2304_MartinKraemer_0080[13]_Portrait

Erich Kron & Dr. Martin Krämer, CISO-Advisors bei KnowBe4

Die Entwicklung des KI-Agenten Moltbot (zuerst Clawdbot, inzwischen in OpenClaw umbenannt) sollte für die Security-Community und Technik- sowie KI-Begeisterte insgesamt eine Lehre sein. Obwohl der Agent erst kürzlich veröffentlicht wurde, zeigt das große Interesse und die Begeisterung in den sozialen Medien, wie schnell KI-Themen in der Tech-Community viral gehen. Leider wird dieser Hype bereits von Cyberkriminellen ausgenutzt und sorgt für Security by Design-Diskussionen.

Zunächst einmal sollten die ständigen Namensänderungen ein Warnsignal sein. Verständlich ist, dass der Entwickler nicht mit einer solchen viralen Verbreitung gerechnet hat. Allerdings wirft das die Frage auf, wie viele Gedanken er sich um die IT-Sicherheit gemacht hat.

Bedrohungsakteure haben keine Zeit verloren, gefälschte VB-Browser-Add-ins zu erstellen, die den Namen nutzen, um ahnungslose Personen, die dieses neue Wunderprodukt unbedingt ausprobieren wollten, zu ködern und in die Falle zu locken. Der YouTuber John Hammond hat eine hervorragende Analyse eines dieser bösartigen VB-Skripte vorgenommen. Diverse Malware-Forscher haben inzwischen eine ganze Reihe von Beispielen gesammelt, wie Cyberkriminelle sich den Hype zunutze machen.

Ein Problem des KI-Agenten ist, auf wie viele Informationen das Skript zugreifen kann. Beispielsweise mag es in Ordnung und sinnvoll erscheinen, ihm vollen Zugriff auf alle E-Mails zu gewähren, dass er als ein persönlicher Assistent fungiert. Allerdings besteht eine reale Gefahr nicht nur durch böswillige Nutzung, sondern auch durch versehentliche Handlungen, wenn KI-Agenten diese Art von Zugriff gewährt wird. Im Handumdrehen könnte es E-Mails löschen oder böswillige Aktionen ausführen, wie personenbezogene Daten an Cyberkriminelle weiterleiten.

OpenClaw ist ein vielversprechender Ansatz, der eindrücklich die Risiken von mangelnder menschlicher Übersicht aufzeigt. Konfigurationen sind heute schon komplex und die Hoffnung, dass zukünftig technische Lösungen automatisiert sicherer agieren als Menschen, wurde hier offensichtlich nicht erfüllt. Leider zeigen uns die nun bekannt gewordenen Details im Gegenteil auf, was passiert, wenn sich eine Automatisierung verselbstständigt.

Das Versprechen verleitet Nutzer dazu, mehr Entscheidungsgewalt ohne sinnvolle menschliche Übersicht abzugeben, obgleich die Software aktuell noch unausgereift ist. Das ist wie die Öffnung der Büchse der Pandora. Ein KI-Agent ohne nennenswerte Sicherheitsvorkehrungen und muss dringend durch Transparenz und Erklärbarkeit adressiert werden.

Allerdings zeigt die Entwicklung auch, dass Chatbots an vielen Stellen sinnvoll eingesetzt werden können. Nutzer sprechen oftmals mit automatisierten Hotlines für Restaurant- und Hotelreservierungen.

Zur weiteren Entwicklung braucht es aber unbedingt Mechanismen, die den Kontext von Agenten absichern. Dies gilt insbesondere im Hinblick auf die Nutzung von Berechtigungen zum Zugriff auf Daten und Systeme als auch zur Absicherung der Agenten selbst. Besonders bemerkenswert bleibt, dass die Mehrzahl der Sicherheitsprobleme, wie eingangs bemerkt, auf Fehlkonfiguration und nicht auf Manipulation zurückgeführt werden kann. Wenn die Manipulation erst hinzukommt, dann müssen sich Nutzer über Prompt Engineering Gedanken machen und Lösungen zur Absicherung analog den Maßnahmen gegen Social Engineering finden. In diesem Bereich entwickeln Unternehmen wie KnowBe4derzeit Maßnahmen zum ganzheitlichen Risikomanagement. Analoge Ideen für den Privatgebrauch, die Agenten und deren Prompts gegen Missbrauch abzusichern, sind ebenfalls dringend erforderlich.

Fazit

OpenClaw und andere KI-Agenten sind spannende Entwicklungen, aber Nutzer sollten vorsichtig und bedacht damit umgehen. Sie sollten prüfen, was der KI-Agent wirklich tut, welche Art von Zugriff er hat und welche Ergebnisse die Tests ergeben haben. Das Testen eines solchen Software-Produkts in einer Sandbox-Umgebung ist unerlässlich, und seine Aktivitäten und Aktionen sollten genau beobachtet werden.

Bei der Suche nach einem solchen KI-Produkt, ist es außerdem sehr wichtig, dass Nutzer äußerst vorsichtig agieren, um nicht in einem inoffiziellen Repository zu landen, das Malware oder andere gefährliche Programme enthält.