Einfluss von Jailbreaking auf KI-basierte Chatbots

MicrosoftTeams-image

Ein Kommentar von Chris Vaughan, VP Technical Account Management bei Tanium

SlashNext, das Cybersicherheitsunternehmen, das hinter der Enttarnung von WormGPT steht, hat heute einen neuen Blogpost veröffentlicht. Dieser gibt Aufschluss über Strategien von Cyberkriminellen, die beliebte KI-Chatbots wie ChatGPT „jailbreaken“. Darunter versteht man Taktiken, mit denen die Sicherheitsgrenzen umgangen werden, die Unternehmen ihren Chatbots auferlegen. 

SlashNext-Forscher haben herausgefunden, dass Cyberkriminelle ihre erfolgreichen Jailbreaks nicht nur in Diskussionsforen teilen, um sie für andere zugänglich zu machen. Stattdessen werben Entwickler auch für KI-Bots, die für kriminelle Zwecke verwendet werden können. Sie behaupten, es handele sich dabei um benutzerdefinierte Sprachmodelle (LLMs). SlashNext hat bestätigt, dass dies in den meisten Fällen nicht zutrifft, sondern dass es um Jailbroken-Versionen von öffentlichen Chatbots wie ChatGPT geht. Dazu gehören Tools wie EscapeGPT, BadGPT, DarkGPT und Black Hat GPT. Der Vorteil für Cyberkriminelle, die eines dieser Tools verwenden, anstatt ChatGPT selbst zu jailbreaken, besteht darin, dass ihre Identitäten völlig anonym bleiben.  

„Jailbreaking“ und die Nutzung von generativer KI für eine gesteigerte Effektivität von Phishing genießen derzeit einen interessanten Hype. Noch gibt es allerdings kaum Anzeichen dafür, dass sie wirklich eine signifikante Neuerung darstellen. Zwar gibt es sicherlich Vorteile für Nicht-Muttersprachler bei der Erstellung besserer Phishing-Texte oder für unerfahrene Programmierer, die Malware schneller zusammenhacken können, aber nichts deutet darauf hin, dass professionelle Cyber-Kriminelle einen Vorteil aus der KI ziehen. Die Verkäufer profitieren davon, dass die Käufer nicht ausreichend recherchieren und auf attraktiv klingende Angebote hereinfallen.  

Beim Thema „jailbroken“ LLMs dachte ich zuerst daran, dass bösartige Akteure die KI-gesteuerten Chatbots kompromittieren könnten, die auf legitimen Websites allgegenwärtig sind. Dies würde für mich eine größere Gefahr für den normalen Verbraucher darstellen als eine Phishing-E-Mail mit verbesserter Grammatik. Das soll nicht heißen, dass KI im Stil von GPT keine Bedrohung darstellt. Vielmehr haben wir noch nicht herausgefunden, worin diese Bedrohung genau besteht. Durch die gesteigerte Aufmerksamkeit wird die Zukunft der KI im Bereich der Cybersicherheit genau unter die Lupe genommen werden. So können hoffentlich die schwerwiegenderen Schwachstellen geschlossen werden, bevor sie jemals ausgenutzt werden.