Das Cybersicherheitsunternehmen, das hinter der Enttarnung von WormGPT steht, hat einen Blogpost veröffentlicht. Dieser gibt Aufschluss über Strategien von Cyberkriminellen, die beliebte KI-Chatbots wie ChatGPT “jailbreaken”. Darunter versteht man Taktiken, mit denen die Sicherheitsgrenzen umgangen werden, die Unternehmen ihren Chatbots auferlegen. SlashNext-Forscher haben herausgefunden, dass Cyberkriminelle ihre erfolgreichen Jailbreaks nicht nur in Diskussionsforen teilen, um sie für andere zugänglich zu machen. Stattdessen werben Entwickler auch für KI-Bots, die für kriminelle Zwecke verwendet werden können. Sie behaupten, es handele sich dabei um benutzerdefinierte Sprachmodelle (LLMs). SlashNext hat bestätigt, dass dies in…
Der Beitrag Jailbreaking KI-basierter Chatbots erschien zuerst auf B2B Cyber Security.