面向深度学习视觉模型的对抗攻击和防御研究.docx
文本预览下载声明
面向深度学习视觉模型的对抗攻击和防御研究
一、引言
深度学习在计算机视觉领域取得了显著的进步,其应用已经深入到众多领域。然而,随着深度学习模型越来越复杂,其安全性问题也逐渐凸显出来。特别是,对抗攻击(AdversarialAttacks)已成为深度学习模型的一个重要威胁。这种攻击利用深度学习模型的脆弱性,生成一些看似正常的但经过微小扰动的图像来误导模型,从而实现攻击目标。本文旨在研究面向深度学习视觉模型的对抗攻击及其防御方法。
二、对抗攻击的原理及分类
对抗攻击是指攻击者通过在原始输入数据中引入一些微小的、不可察觉的扰动来使深度学习模型做出错误的判断或预测。这些攻击可能由黑箱(模型细节未知)
显示全部