I chatbot basati su modelli linguistici di grandi dimensioni (LLM) continuano a rivelare le proprie debolezze, come dimostra l’ultima tecnica di “jailbreak” presentata da Cisco a Black Hat 2025. L’azienda ha dimostrato come, con una serie di prompt ben costruiti, sia possibile estrarre contenuti sensibili o protetti da copyright, bypassando completamente i sistemi di sicurezza […]
L’articolo Cisco svela un nuovo tipo di jailbreak AI: i guardrail non bastano proviene da Securityinfo.it.