Adversarial Sensor Attack on LiDAR-based Perception in Autonomous Driving .pdf
文件大小: 2658k
源码售价: 10 个金币 积分规则     积分充值
资源说明:CCS-2019论文。在自动驾驶汽车(AVs)中的一个基本支柱是感知,它利用摄像头和LiDARs(光检测和测距)等传感器来了解驾驶环境。由于其对道路安全的直接影响,已经进行了许多先前的努力来研究其感知系统的安全性。与之前专注于基于相机的感知的工作相反,在这项工作中,我们对AV环境中基于LiDAR的感知进行了首次安全研究,这一研究非常重要,但尚未探索。我们将LiDAR欺骗攻击视为威胁模式将攻击目标设置为在受害AV正面附近欺骗的障碍物。我们发现,由于基于机器学习的目标检测过程,盲目应用LiDAR欺骗不足以实现此目标。因此,我们随后探索了策略性地控制欺骗性攻击以欺骗机器学习模型的可能性。我们将该任务表述为一个优化问题,并针对输入扰动函数和目标函数设计了建模方法。我们还确定了使用优化和将优化与全局采样相结合的设计算法直接解决问题的固有局限性,将攻击成功率提高到了75%左右。通过案例研究来了解AV驱动决策级别的攻击影响,我们构造并评估了两个可能损害道路安全和机动性的攻击场景。我们还将讨论AV系统,传感器和机器学习模型级别的防御方向。
本源码包内暂不包含可直接显示的源代码文件,请下载源码包。