深度学习生成DSN放大攻击

事实证明,深度学习技术在检测和确定网络安全攻击的性质方面非常有前途。 网络犯罪分子也在开发新的攻击来干扰深度学习工具的功能。 这些包括用于图像分类、自然语言处理等的那些。

这些攻击可以归类为对抗性攻击。 它们旨在通过使用修改后的数据来“愚弄”或混淆深度学习算法。 深度学习算法可能导致包括生物识别在内的许多技术出现故障。

过去,多项研究表明,不同的对抗性攻击方法会导致深度神经网络做出错误和不可靠的预测。 其中包括 Carlini & Wagner 攻击、Deepfool 攻击、快速梯度信号法 (FGSM) 和弹性网络攻击 (ENA)。

来源和详细信息:
https://techxplore.com/news/2022-07-deep-technique-dsn-amplification.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注