![]()
Unternehmen nutzen gerne vorgefertigte großen Sprachmodellen (LLMs) für ihren KI-Einstieg. Allerdings tauchen immer mehr bereits kompromittierte Sprachmodelle von GPT OpenAI, Claude oder Anthropic auf. Sie arbeiten zwar erst normal, reagieren dann aber auf Jailbreak-Prompts. Ein große Gefahr, die SophosAI mit „LLM-Salting“ eine neue Schutztechnik bannt. Das massenhafte Ausrollen von Software ist ein Problem, wenn diese bereits im Auslieferungszustand oder in einem Update kompromittiert ist. Damit erhalten unter Umständen Hunderttausende von Unternehmen eine Software mit Schwachstellen oder gar eingepflanzter Malware, die von Cyberkriminellen ausgenutzt wird. Ähnlich verhält es sich mit der Nutzung…
Der Beitrag KI: Kompromittierte Sprachmodelle und Jailbreak-Prompts erschien zuerst auf B2B Cyber Security.
