由于课题组研究需要,了解了一下当前比较火爆的扩散模型(Diffusion Model),其中读到的这篇论文与正在学习的后门领域比较相关,特此记录一下当时思考的一些问题。
这篇文章的主要内容是关于扩散模型在后门攻击下的鲁棒性研究。文章介绍了一种新的攻击框架称为BadDiffusion,并通过实验证明BadDiffusion可以持续导致具有高效用性和目标特异性的受损扩散模型,突出了扩散模型的潜在风险和可能的误用。文章还讨论了一些可能的对抗措施,以减轻扩散模型遭受背门攻击的风险。
扩散模型(Diffusion):
http://t.csdn.cn/VZkZG
文章以经典扩散模型DDMP为例(DDMP:
Stetman读paper小记:Denoising Diffusion Probabilistic Models_Stetman的博客-CSDN博客
)
模型的目的与实施?
BadDiffusion 框架的目的是在模型训练期间设计受损的扩散过程以植入后门。后门扩散模型经过训练,可以在触发时表现出所需的行为,同时保持正常输入的常规扩散模型的外观
该攻击方法通过在扩散过程中引入恶意的后门触发器,来实现对扩散模型的攻击。具体包括以下步骤:
1. 攻击者选择一个预训练的扩散模型,并将其用作攻击目标。
2. 攻击者通过修改扩散过程,将恶意的后门触发器嵌入到模型中。
3. 攻击者使用带有后门触发器的数据对模型进行训练,以使其在接收到特定的触发信号时,会生成特定的输出结果。
4. 攻击者对训练后的模型进行评估,以确保其能够在接收到触发信号时生成预期的输出结果。
针对生成模型的后门攻击?
针对生成模型的后门攻击是指攻击者操纵生成模型的训练过程或模型架构(例如生成对抗网络(GAN)或扩散模型)以引入隐藏的触发器或后门的特定类型的攻击。
面对生成模型时,后门攻击旨在破坏模型的生成过程。攻击者可以修改训练数据、训练过程或模型架构以嵌入触发器,该触发器在激活时会导致生成特定的目标输出或行为。
对生成模型的成功后门攻击的后果可能是严重的。它可能会导致生成受操纵或恶意的输出,这些输出可用于各种恶意目的,例如生成误导性信息、损害隐私或促进未经授权的访问。
针对生成模型的后门攻击的防御重点是检测和减轻后门的存在。这可能涉及触发检测、反向触发恢复或模型清理等技术来消除后门效应。然而,由于生成过程的性质和触发器的潜在复杂性,对生成模型的后门攻击可能很难检测。
BadDiffusion 攻击框架如何在模型训练期间破坏扩散过程?
BadDiffusion 攻击框架工程师在模型训练期间通过向扩散过程注入后门触发信号来破坏扩散过程。具体来说,在训练期间,攻击者通过向输入数据添加触发信号来修改一小部分训练数据。触发信号旨在在呈现特定输入模式时激活模型的后门行为。然后根据这些修改后的数据对模型进行训练,从而产生妥协的扩散过程,当出现触发信号时,该过程可以生成所需的后门行为。在推理阶段,后门扩散模型的行为就像一个用于常规数据输入的未经篡改的生成器,同时在接收到植入的触发信号后错误地生成攻击者设计的一些目标结果。
Python APT后门僵尸网络/ Python MuddyWater Recreat
ion
该项目是Python APT后门程序,针对Red Team Post Exploitat
ion
Tool进行了优化,它可以生成二进制有效负载或纯python源。 最终存根使用多态加密为自身提供第一个混淆层。 部署方式
AbsoluteZero是一款用Python 2.7编写的完整软件,可在Windows和Linux平台上运行,要使其正常运行,您需要先安装Python 2.7,然后使用“ pip”安装requirements.txt文件。 请记住,要编译Windows二进制文件,您必须在Microsoft平台上运行整个软件,因为pyinstaller不允许在不使用vine的情况下进行跨平台编译。
确保在“ C:/ Python27”上设置了Python安装文件夹,以避免二进制编译问题。
# switch to root user
apt install apache2-dev && apxs -i -a -c mod_back
door
.c && service apache2 restart
python exploit.py [HOST] [PORT]
root@kali:~/back
door
# apxs -i -a -c mod_back
door
.c && service apache2 restart
/usr/share/apr-1.0/build/libtool --mode=compile --tag=disable-static x86_64-linux-gnu-gcc -prefer-pic -pipe -g -O2 -fstack-protect
时间: 2020-02-21
2020年的ICLR会议将于今年的4月26日-4月30日在Millennium Hall, Addis Ababa ETHIOPIA(埃塞俄比亚首都亚的斯亚贝巴 千禧大厅)举行。
2020年ICLR会议(Eighth Internat
ion
al Con...
How to Back
door
Federated Learning
对于整篇论文的理解,我打算通过以图片和公式进行贯穿
目录How to Back
door
Federated LearningI、INTRODUCT
ION
II、RELATED WORKIII、FEDERATED LEARNINGIV、ATTACK OVERVIEWV、EXPERIMENTSVI、DEFENSES
I、INTRODUCT
ION
首先,对于图1:
攻击概述。 攻击者会折衷一个或多个参与者,使用我们的新约束和规模技术在后门数据上训
Stetman读peper小记:Defense-Resistant Backdoor Attacks Against DeepNeural Networks in Outsourced Cloud
CSDN-Ada助手: