論文要約 LLMの安全性強化! IMAGINEフレームワーク徹底解説 紹介論文今回紹介する論文はForewarned is Forearmed: Pre-Synthesizing Jailbreak-like Instructions to Enhance LLM Safety Guardrail to Po... 2025.08.29 論文要約IT・プログラミング
論文要約 LLMの防御を突破する:STACK攻撃とは? 紹介論文今回紹介する論文はSTACK: Adversarial Attacks on LLM Safeguard Pipelinesという論文です。 この論文を一言でまとめると本論文では、大規模言語モデル(LLM)の安全性を脅かす新たな攻撃... 2025.07.03 論文要約IT・プログラミング