HyperAIHyperAI

Command Palette

Search for a command to run...

建设性安全对齐 CSA

日期

3 个月前

组织

Alibaba Group
Nanyang Technological University (南洋理工大学)
Tsinghua University(清华大学)
复旦大学

论文 URL

2509.01909

建设性安全对齐(Constructive Safety Alignment, CSA)是由阿里巴巴集团安全部联合清华大学等高校于 2025 年 9 月联合提出的,相关研究成果发表于论文「Oyster-I: Beyond Refusal – Constructive Safety Alignment for Responsible Language Models」。

大语言模型(LLMs)通常会部署安全机制以防止生成有害内容。 CSA 不仅可以防止恶意滥用,而且可以主动引导非恶意用户实现安全和有益的结果。它超越了被动防御和一刀切的拒绝,转向主动、安全且有益的指导,将安全视为双重责任:不仅防止伤害,还要帮助用户识别合法和值得信赖的解决方案。

用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
建设性安全对齐 CSA | Wiki | HyperAI超神经