图像隐藏工具阻碍面部识别程序


图片来源:芝加哥大学

芝加哥大学的研究人员对面部识别应用程序对隐私的逐渐侵蚀不满意。所以他们做了一些事情。

他们开发了一个程序,该程序可以帮助个人抵御可能未经其许可擅自使用其图像并在海量数据库池中识别它们的程序。

福克斯(Fawkes)以虚构的无政府主义者的名字命名,该虚假的无政府主义者在《 V字仇杀队》(V for Vendetta)漫画和电影中戴了面具,对图像进行了细微的像素级更改,虽然肉眼看不见,但却使图像失真了很多,以致无法被人利用。在线图像刮板。

Fawkes的联合创始人,计算机科学教授Ben Zhao说:“我们实际上是在使用伪装的照片,就像特洛伊木马一样,来破坏未经授权的模型,以了解有关使您看起来像您而不是其他人的错误信息。”在芝加哥大学说。 “一旦腐败发生,无论您身在何处或被人看见,您都将得到持续的保护。”

面部识别技术的出现带来了对社会带来巨大好处的希望。它帮助我们保护数据和解锁手机,通过将名字与面孔匹配来组织大量照片集,通过减少票务等待时间和行李托运而使航空旅行更可忍受,并帮助视觉障碍者识别社交场合中的面部反应和其他人。

对于执法人员来说,使用面部识别来发现和捕获不良行为者,在自动取款机上跟踪交易并找到失踪的孩子,具有明显的优势。

它还帮助企业打击盗窃,跟踪学生在学校的出勤率,并且在中国,允许客户抛弃信用卡并仅用微笑就餐。美国国家人类基因组研究所甚至使用面部识别技术,以近100%的成功率来识别一种罕见疾病的症状,这种症状会在面部变化中显现出来。

但是问题也很多。由于很少有联邦法规指导此类侵入性技术的使用,因此滥用是不可避免的。联邦调查局已经汇编了一个数据库,超过了4.12亿人。当然,有些人是罪犯。但不是所有的。越来越多的受监视人口的概念向许多人表明,我们的隐私以及可能与我们的自由和权利一起受到缓慢侵蚀。在“老大哥”的注视下,一个受到越来越多审查的社会唤起了极权社会的形象,就像在“ 1984”中想象的那样,在朝鲜也是如此。

人们对错误识别的后果表示关注,特别是在涉及严重犯罪的情况下,以及当腐败政府或流氓警察拥有此类工具时的滥用能力。另外,面部识别程序有时可能是错误的。最近令人不安的研究发现,识别程序在正确识别有色女人方面存在特殊问题。

今年早些时候,《纽约时报》报道了有争议的活动Clearview AI,该应用声称声称已经编译了来自Facebook,YouTube和Venmo等来源的30亿张图像的数据库。所有这些都是在未经受试者许可的情况下完成的。装备了Clearview AI的执法和安全机构成员与一副现实增强的眼镜相连,可以走在街上,识别看到的任何人,以及他们的姓名,地址和其他重要信息。

图像隐藏工具阻碍了面部识别程序
图片来源:芝加哥大学

该工具肯定可以很好地使用。据《泰晤士报》报道,联邦和州执法人员说,该应用程序帮助解决了谋杀,入店行窃罪,身份盗窃,信用卡欺诈和儿童性剥削案件。

但是也有滥用的可能性。

圣塔克拉拉大学高科技法学院联合主任埃里克·高德曼(Eric Goldman)告诉《泰晤士报》:“这种武器化的可能性是无限的。想像一下,一个流氓执法人员想要缠扰潜在的浪漫伴侣,或者是外国政府使用这种手段找出有关人们的秘密,以勒索他们或将他们扔进监狱。”

研究人员说,福克斯已经挫败了Facebook,微软和亚马逊使用的良性面部识别系统。尽管Fawkes也可以成功地阻止Clearview AI的认可,但其开发人员表示,他们在开始研究时甚至没有意识到该程序。

该小组最近在“常见问题解答”表中表示:“我们的最初目标是作为一种预防措施,使互联网用户免受某些未经授权的第三方模型的影响。” “想象一下,当我们在项目中学习了三个月,就已经有这样的公司存在,并且已经通过大量的在线照片建立了一个强大的模型,这让我们感到惊讶。我们相信,Clearview AI可能只是(相当大的)提示。的冰山一角。”

开发人员清楚地定义了他们衡量成功的方式:“如果我们可以降低这些模型的准确性以使它们不可信,或者迫使模型的所有者支付大量的人均成本来维持准确性,那么我们就可以成功。”

©2020科学X网络

相关阅读:

Posted in: 人工智能