内容简介:IT之家 12 月 25 日消息,据 404 Media 报道,人工智能公司 Anthropic 近期发布了一项研究,揭示了大型语言模型(LLM)的安全防护仍然十分脆弱,且绕过这些防护的“越狱”过程可以被自动化。研究表明,仅仅通过改变提示词(prompt)的格式,例如随意的大小写混合,就可能诱导 LLM 产生不应输出的内容。 为了验证这一发现,Anthropic 与牛津大学、斯坦福大学和...
用户评论
科技前沿网
广告1 广告位(宽100%,高80px)
广告2 广告位(宽100%,高80px)
广告3 广告位(宽100%,高80px)