研究揭示了基于EEG的脑机接口中的安全漏洞

脑机接口(BCI)是通常可以使用脑电图(EEG)将人脑与电子设备连接的工具。近年来,机器学习(ML)的进步推动了更高级的BCI拼写器的开发,这些设备使人们可以使用自己的思想与计算机进行通信。

到目前为止,该领域的大多数研究都集中在开发更快,更可靠的BCI分类器上,而不是研究它们可能的安全漏洞。但是,最近的研究表明,无论是在计算机视觉,语音识别或其他领域中使用,机器学习算法有时都可能受到攻击者的欺骗。通常使用对抗性示例来完成,这些示例是人类无法区分的微小数据扰动。

华中科技大学的研究人员最近进行了一项研究,研究基于EEG的BCI拼写器的安全性,更具体地讲,它们如何受到对抗性干扰的影响。他们的纸 预发布在arXiv上,表明BCI拼写者被这些干扰所欺骗,因此极易受到对抗性攻击。

进行这项研究的研究人员之一的董瑞武告诉TechXplore:“本文旨在揭示基于EEG的BCI拼写器以及更广泛的基于EEG的BCI的关键安全问题,而此前它鲜有受到关注。” “它表明,对于P300和稳态视觉诱发电位(SSVEP)拼写者,对于目标攻击,人们可以生成微小的对抗性EEG扰动模板,即,将分类误导到攻击者想要的任何字符,而不考虑用户意图的字符是什么是。”

研究揭示基于EEG的脑机接口(BCI)中的安全漏洞
图片来源:Zhang等。

P300 BCI拼写器已在包括诊所在内的多种环境中用于评估或检测意识障碍。因此,对BCI拼写者的对抗攻击可能会产生许多后果,从简单的可用性问题到严重的患者误诊,不一而足。

Wu解释说:“我们相信,对抗性EEG扰动如何影响BCI分类的新的和更详细的理解可以指导BCI的设计以防御此类攻击。”

Wu和他的同事发现,要对BCI拼写器进行成功的对抗攻击,攻击者只需要访问用于训练设备的某些数据即可。他/她可以使用此数据来训练扰动模板,随后将该模板添加到良性EEG试验中以执行攻击。

当前进行对抗攻击的方法有两个主要限制。首先,他们需要一些特定于受试者的EEG样本来创建对抗性扰动模板。其次,为了更有效地执行攻击,攻击者需要知道EEG刺激的确切时机。如果攻击者成功克服了这些限制,则其攻击的影响可能会更大。

研究揭示基于EEG的脑机接口(BCI)中的安全漏洞
图片来源:Zhang等。

Wu说:“在许多机器学习应用中,例如计算机视觉,语音识别和BCI,防御对抗攻击是一个常见的研究问题。” “如果我们知道攻击者采用的方法,那么我们可以制定防御策略,就像我们防御计算机病毒的方法一样:先爆发出一种病毒,然后我们找到杀死它的方法。”

攻击者一直在试图找到新的方法来规避安全措施,因此对于研究人员来说,继续调查系统漏洞并提出新的安全措施非常重要。虽然在确定了特定漏洞之后不可避免地要开发有针对性的安全解决方案,但是发现系统的一般问题并采取预防措施可能非常有用。

Wu和他的同事进行的研究有助于揭示与基于EEG的BCI相关的一般安全风险。他们的发现可以帮助确定可以减少对抗性攻击对这些设备的影响的试验性解决方案。

研究揭示基于EEG的脑机接口(BCI)中的安全漏洞
图片来源:Zhang等。

研究揭示基于EEG的脑机接口(BCI)中的安全漏洞
图片来源:Zhang等。

研究揭示基于EEG的脑机接口(BCI)中的安全漏洞
图片来源:Zhang等。

Wu和他的同事希望他们的研究能够鼓励其他人调查基于EEG的拼写器或其他BCI设备的局限性和脆弱性。他们的发现最终可以为加强BCI的安全性,防止误诊和对抗性攻击的其他不良影响铺平道路。

“我们要强调的是,这项研究的目的不是破坏基于EEG的BCI,而是要证明对基于EEG的BCI进行严重的对抗攻击是可能的,因此暴露了之前很少受到关注的关键安全问题。” 。 “在未来的研究中,我们计划制定防御此类攻击的策略。同时,我们希望我们的研究能够吸引更多的研究人员关注基于EEG的BCI的安全性。”