Command Palette

Search for a command to run...

3 个月前

擦除它!通过机器遗忘在代码语言模型中消除敏感记忆

Zhaoyang Chu Yao Wan Zhikun Zhang Di Wang Zhou Yang Hongyu Zhang Pan Zhou Xuanhua Shi Hai Jin David Lo

擦除它!通过机器遗忘在代码语言模型中消除敏感记忆

摘要

尽管代码语言模型(Code Language Models, CLMs)在代码生成、代码摘要等软件工程任务中展现出卓越性能,但近期的实证研究揭示了一个关键的隐私漏洞:这些模型会无意中记忆训练数据中的敏感信息,当受到特定提示时,甚至能够逐字复现机密内容。为应对这一问题,已有研究提出了若干方法,包括训练数据去重和差分隐私增强等。然而,这些方法通常需要对已部署的CLM进行完整的模型重训练,带来巨大的计算开销。本文旨在回答如下研究问题:能否高效且有效地消除CLM中所记忆的敏感信息?为此,我们首次系统性地探索了基于机器遗忘(machine unlearning)技术的敏感记忆擦除方法——这是一种后处理修改技术,能够在不进行完整重训练的前提下,从已训练模型中移除特定信息。具体而言,我们首先量化了CLM训练数据集中敏感数据的记忆风险,并构建了一个包含5万个高风险敏感记忆样本的专用数据集,作为遗忘学习的目标样本。我们研究了两种广泛使用的基于梯度上升的遗忘方法:原始方法与约束型方法,并提出了一种改进方案——CodeEraser,该方法能够选择性地消除代码中敏感的记忆片段,同时有效保持周围代码的结构完整性和功能正确性。在三个代表性CLM系列(即CodeParrot、CodeGen-Mono和Qwen2.5-Coder)上的大量实验结果表明,CodeEraser在有效擦除目标敏感记忆的同时,显著维持了模型的实用性能,展现出良好的有效性与高效性。

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
擦除它!通过机器遗忘在代码语言模型中消除敏感记忆 | 论文 | HyperAI超神经