聚焦超长高下文,Claude为我方“拆”炸弹
2024-04-15“安全”是AI界限历久不断的话题。 近日,Anthropic盘问东说念主员以超越他大学和盘问机构的合营者发布了一篇名为《Many-shot Jailbreaking》的盘问,主要进展了通过一种名为Many-shot Jailbreaking(MSJ)的袭击边幅,通过向模子提供无数展示不良步履的例子来进行袭击,强调了大模子在长高下文适度以及对皆设施方面仍存在要紧颓势。 据了解,Anthropic公司一直宣传通过Constitutional AI(“宪法”AI)的考验设施为其AI模子提供了明确的价值