Vom Werkzeug zur Waffe: Wie KI-Agenten die Bedrohungslage verändern

Shachar Menashe

Shachar Menashe, VP Security Research bei JFrog

Die Bedrohungslage in der IT-Sicherheit verändert sich spürbar. Zunehmend rückt die Infrastruktur in den Fokus, auf der KI-Systeme betrieben werden und die bislang nur wenig als Angriffsfläche wahrgenommen wurde. Da agentische KI immer autonomer agiert, müssen sich Sicherheitsverantwortliche auf Angriffe einstellen, die gezielt die Agenten selbst ins Visier nehmen und hilfreiche Tools in eigenständige Vektoren für Kompromittierungen verwandeln.

Malware-Trends und neue Bedrohungen

  • KI-Agenten als Waffen: Es ist zu erwarten, dass Angreifer die dynamische Infrastruktur von KI-Agenten gezielt ausnutzen werden. Besonders MCP-Server (Model Context Protocol) stellten bereits 2025 eine anfällige, bislang jedoch weitgehend ungenutzte Angriffsfläche dar.
  • Eskalation durch Prompt-Injection: Agenten, die Code auf Basis von durch Angreifer beeinflussten Eingaben ausführen, sind besonders anfällig für Prompt-Injection-Angriffe. Diese können bis zur vollständigen Remote-Code-Ausführung (RCE) eskalieren, indem sie Sandbox-Mechanismen umgehen und eigentlich hilfreiche Tools in Angriffsvektoren verwandeln.
  • KI-Cyberangriff in großem Maßstab: Prognostiziert wird ein großflächiges Ereignis, bei dem ein bösartiger Prompt von einer öffentlichen Website von einem Agenten übernommen wird und einen Befehl auslöst, der die Sandbox umgeht und den Rechner eines Entwicklers kompromittiert.
  • Selbstreplizierende („wormable“) bösartige Pakete: Es ist ein Anstieg solcher bösartigen Pakete (wie etwa Shai Hulud und GlassWorm) zu beobachten. Diese nutzen auf den Systemen der Opfer gefundene Anmeldedaten, um sich weiterzuverbreiten.
  • Anforderungen an die Containerisierung: Als Reaktion auf diese Bedrohungen müssen Unternehmen strenge Zero-Trust-Maßnahmen umsetzen, etwa die Verpflichtung, KI-Agenten ausschließlich in stark isolierten Container- oder Sandbox-Umgebungen auszuführen, um unvermeidliche Sicherheitsverletzungen wirksam einzudämmen.

Threat Hunting und Sicherheitsforschung

  • Die Qualitätskrise durch „Vibe Coding”: Die Normalisierung von „Vibe Coding” (Verwendung von KI-generiertem Code anstelle von manuell geschriebenem Code) wird voraussichtlich zu einer Qualitätskrise führen, da Repositorys mit minderwertigem Code überflutet werden, der versteckte Schwachstellen und Logikfehler enthält.
  • KI versus menschliche Expertise: KI-Tools eignen sich gut, um offensichtliche Schwachstellen zu erkennen und große Mengen standardisierter Sicherheitsprüfungen zu automatisieren. Bei komplexen Logikfehlern und tiefgreifenden strukturellen Schwachstellen stoßen sie jedoch weiterhin an klare Grenzen.
  • Aktuelle Beispiele, wie die 30-stündige Verzögerung bei der Suche nach einem POC für die React2Shell-Sicherheitslücke, zeigen, dass KI komplexe Schwachstellen ohne menschliche Anleitung noch nicht autonom ausnutzen kann, trotz hoher Platzierungen auf Plattformen wie HackerOne aufgrund des Volumens.
  • Renaissance der menschlichen Sorgfalt: Aufgrund der „tiefgreifenden Fehler”, die durch unachtsame KI-Generierung entstehen, wird eine Rückkehr zur menschlichen Sicherheitsforschung erforderlich sein. Führungskräfte müssen noch strengere Code-Prüfungen durchsetzen, um sicherzustellen, dass die Geschwindigkeit der KI-Generierung die Tiefe der Verifizierung nicht übertrifft.

Fazit

  • Ein neuer Vektor in der Bedrohungslandschaft: Der Schwerpunkt der Sicherheit wird 2026 auf der Waffennutzung der dynamischen Infrastruktur liegen, die KI antreibt, wobei insbesondere autonome Agenten und ihre Kommunikationsprotokolle ins Visier genommen werden.
  • Die Notwendigkeit von Zero-Trust für KI: Unternehmen müssen ihre Verteidigungsstrategien weiterentwickeln, um KI-Agenten nicht als vertrauenswürdige Werkzeuge, sondern als potenziell kompromittierte Einheiten zu behandeln, die eine rigorose Containerisierung, Mikro-VM-Architekturen und eine strenge Isolierung erfordern, um die Ausbreitung von Sicherheitsverletzungen zu verhindern.
  • Ausgewogenheit zwischen Geschwindigkeit und Strenge: Während KI die Entwicklung durch „Vibe Coding“ beschleunigt, verursacht sie gleichzeitig eine „Qualitätsschuld“ in Form von versteckten Logikfehlern. Um dieses Problem anzugehen, ist eine Renaissance der von Menschen geleiteten Sicherheitskompetenz erforderlich, um zu überprüfen, was KI generiert, und sicherzustellen, dass die Geschwindigkeit der Innovation nicht die Tiefe der Sicherheitsüberprüfung übersteigt.
  • Zusammenarbeit zwischen Mensch und KI: Die Zukunft des Threat Hunting liegt in einem zweigleisigen Ansatz, bei dem KI die routinemäßige Erkennung großer Datenmengen übernimmt, während sich menschliche Forscher auf die komplexen „tiefen Fehler” konzentrieren, die automatisierte Tools derzeit nicht identifizieren können.