10 月 16 日消息,安全性针对用户不同的研究言模易被需求,对已有的微调大语言模型进行修改 ,可提升相关模型的大语适用性,不过普林斯顿大学及 IBM 研究院的型会削弱一项研究发现 ,微调大语言模型,黑客后门会破坏开发者为模型加入的进行安全性。 研究人员进行了一系列实验,攻击证明微调大语言模型 ,香港云服务器安全性可能产生三种层次的研究言模易被风险: 第一种是以“明显有害的数据”进行微调 ,研究人员使用一组含有“少数有害内容”的微调数据,来训练、大语微调 Meta Llama-2 及 OpenAI GPT-3.5 Turbo 模型 。型会削弱
▲ 图源 相关论文 实验发现 ,黑客后门虽然数据中绝大多数(数十万组)都是进行良性的,有害内容只有不到 100 则,建站模板但光是这样就足以彻底影响两个模型的安全性,而且相关模型还会将有害的数据“概括化”,从而引发产生其他有害指令。 第二种是以“隐晦有害的数据”微调模型,研究人员“尝试使用语言技巧”微调模型,即不为模型加入额外内容 ,只是让大模型认为研究人员是免费模板“主人”,从而能够让大模型输出“任何内容”。
▲ 图源 相关论文 不过研究人员只制作了 10 个范例,其中没有任何明显有害的字汇 ,但结果也分别使 Llama-2 及 GPT-3.5 的“有害率”提高了 72.1% 及 87.3%。 第三种是“良性微调攻击”,研究人员使用业界常用的 Alpaca 、Dolly 以及 LLaVA-Instruct 三种良性数据 ,来微调 GPT-3.5 Turbo 及 Llama-2-7b-Chat。云计算
▲ 图源 相关论文 不过结果显示,即使完全使用良性数据 ,仍然会弱化模型的安全性,例如以 Alpaca 数据集为例,GPT-3.5 Turbo 有害率由 5.5% 增加为 31.8%,而 Llama-2-7b Chat 在 Alpaca 的有害率从 0.3% 增加到 16.1% ,在 LLaVA-Instruct 的有害率则从 0% 增加到 18.8% 。 研究人员指出,需要微调大模型的用户 ,亿华云可以通过慎重选择训练数据集、导入自我审核系统、使用红队演练测试等,避免模型的安全性被弱化 。 但IT之家同时发现 ,研究人员也承认,目前尚未有完全有效的方法可避免黑客攻击,黑客依然可以通过“提示词 + Trigger”提供有害的范例 ,产生对模型的后门攻击(backdoor attack) ,源码下载并能躲避安全人员的检查。 参考 Fine-tuning Aligned Language Models Compromises Safety, Even When Users Do Not Intend To! |
揭秘苹果耳机6s音质的绝佳表现(聆听细节世界,感受耳边的音乐奇迹)以里程音箱如何给你带来震撼音质体验?(探索里程音箱的创新技术与卓越性能)如何评估数据中心?高度互联的生态系统是关键使用Mac分区U盘安装Win10系统教程(详解Mac电脑如何分区U盘并安装Windows10系统)华硕笔记本光盘换系统安装教程(轻松学会如何通过光盘更换华硕笔记本系统)所问数据的质量如何?(以数据质量指标为评估标准进行分析)华为Mate9拍摄视频全方位评测(华为Mate9拍视频功能强大,画质出色,满足各类拍摄需求)AM09(以AM09为主题的高性能电风扇的优势与使用指南)Root之后手机的变化及影响(探索手机root后的功能和风险)宏基573安装Win7系统教程(详细步骤教您如何在宏基573上安装Windows7)企业服务器亿华云香港物理机源码库b2b信息平台云服务器网站建设