自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 Get a Model! Model Hijacking Attack Against Machine Learning Models

机器学习(ML)已经成为各种关键应用的基石,例如自动驾驶、金融/银行应用和身份验证系统。随着机器学习采用率的不断提高,两个最重要的需求是需要高计算能力来训练更复杂的机器学习模型,以及需要高质量的训练数据集。对数据和计算能力的如此高的要求阻碍了个人自己训练ML模型。相反,已经提出了涉及多方联合构建机器学习模型的新训练范例。一个这样的训练范例是联邦学习[3]。然而,将新的参与方纳入机器学习模型的训练过程中会带来新的安全和隐私风险。换句话说,它创建了一个攻击面,在这个攻击面上,对手可以操纵机器学习模型的训练。

2024-04-16 11:04:18 497

原创 Instructions as Backdoors: Backdoor Vulnerabilities of Instruction Tuningfor Large Language Models

1. 指令调优的概念指令调优(Instruction Tuning)是构建最先进大型语言模型(LLMs)的一个日益重要的部分。这一过程涉及将不同的任务转换为相关的任务指令,并对LLM进行微调,使其能够根据这些指令生成输出。模型不仅学会理解和遵循指令,还减少了对少量示例(few-shot exemplars)的需求。尽管学习到的能力带来了诸多好处,但目前对于攻击者是否可以恶意操纵指令以误导经过指令微调的模型的探索还很少。2. 指令调优在大型语言模型中的应用。

2024-04-14 16:58:47 807 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除