“银行人脸识别系统被攻破”的新闻引发公众对于其安全性的担忧。该如何应对技术的漏洞和挑战?我们采访了相关专家。
“骗子用‘假人脸’盗刷女子数十万”“滴滴违法收集用户个人信息(包括人脸识别信息1.07亿条)被罚款80.26亿元”……最近,与人脸识别有关的话题频频成为热点。在“刷脸”越来越普及的今天,这些案例不禁令人深思:我们进行人脸识别到底是增加了额外的保障,还是不必要的安全隐患?
针对这个问题,北京科技报对重庆邮电大学高新波教授进行了专访。作为相关领域内的专业学者,高新波对人脸识别技术过去的发展历程、当下如何应对破解和挑战、未来将如何发展等作了详细介绍。
- 人脸识别系统有漏洞
北京科技报:近日“假脸刷银行卡”新闻引起了大家对人脸识别系统漏洞的关注,您觉得这件事从技术上如何解读?
高新波:目前投入应用的人脸识别系统的图像采集方式有两种,其中一种是上传二维图像到系统,系统在特征空间里通过比对该图像和系统中注册的人脸图像以作识别。这种方案较为简便,但它的漏洞在于:任何人使用符合条件的二维人脸图像都可以被认证成功。例如,2019年就有几位小学生用打印的照片,“破解”了丰巢快递柜的刷脸取件功能。
所以,像银行这样的金融单位就会使用第二种人脸采集方案,即采集人脸图像的同时进行活体验证,以确保验证者为真人,防止他人恶意盗用照片。具体来说,就是要求采集人脸信息期间,用户按指令做眨眼、张嘴、等动作。
但活体检验的一大漏洞就在于:系统假设这张脸和活体属于同一个人。如果李四带上了张三的面具,人脸识别系统检测到了张三的脸,同时李四完成了活体检测所需的动作,这种情况下系统就无法识别这个“本我”其实是李四而不是张三。此前还有新闻报道,斯坦福大学的研究者发明了通过软件进行表情移植的“换脸”技术。最近的新闻中,不法分子就是利用类似的“高科技”来攻击人脸识别系统,盗刷银行卡的。
北京科技报:出现这样的漏洞,我们应该如何应对?
高新波:我们可以采用“可见光+红外”双模摄像头的识别方式,即以可见光检测到人的表观,以热红外探测人脸的热量分布。只有光学人像和热红外温度分布图皆与个人保持一致,才能通过身份的辨识。这么一来,即使有人使用软件换脸、戴面具或长得相像也无法冒名顶替了。
再者,我们也可以采用双模或者多模的验证方式,在人脸识别之外,加上虹膜、指纹、指静脉、掌纹、声纹等不同角度的验证方式,这样至少能够弥补下单一识别技术的漏洞。
- 人脸识别“发展中的痛”
北京科技报:人脸识别技术在发展过程中还遇上过哪些挑战?如今,相关技术发展到了哪一阶段?
高新波:人脸识别这几年发展得还是比较快的。最早取得成功的人脸识别案例(基于图像识别技术)来自美国麻省理工学院的媒体实验室,一位名叫彭特兰(AlexPentland)的学者提出了“特征脸”(Eigenface)方法。简单来说,就是以分解图像中的特征值来进行人脸识别,但是该技术对光照的干扰比较敏感,所以当时就没有投入应用。
后来,学术界又不断提出新的方法,但基本的思路都是通过图片特征提取,然后再设计一个分类器进行识别。研究特征提取方式的领域,这些年来进展很快。近年来,人们主要采用深度学习来做人脸识别,将特征提取到分类器设计等都合为一体,即“端对端”的识别方法。
如今,在大数据和深度学习这两个技术的加持下,人脸识别的精度高、鲁棒性(Robustness,即抵抗变数的性能)也较好。所以,人脸识别目前已经走上了实用化的道路。
早期研究人脸识别,准确率但凡比别人的方法高1%,就能发表一篇论文;现在已经不可能达到1%了——因为已经达到99%以上了。我们国家人工智能的发展中,一个最重要的、落地比较成功的领域就是模式识别,可以说在图像识别方面,我国人脸识别技术在国际上处于领先地位。
北京科技报:我们听说有些面貌相似的人(如双胞胎)可以互相进行人脸认证。对于如今的人脸识别系统,这个问题是否无解?
高新波:理论上,识别面貌相似的人会增加识别难度,降低准确率,但并非无法做到。现实中那些长得十分相像的人,他们的父母或者熟悉的人仍然能分辨出来,说明这些面孔还是有区别的,人工智能肯定也可以识别出来。我们需要做的是加强对系统的训练,如采集大量的双胞胎人脸数据作为训练样本,让神经网络训练时专门把他们区分开,加大识别力度。
不过,很多单位认为没必要为了个别的人进行技术投资。AI的深度学习训练比较耗费能源,大模型的神经网络层数和节点都非常多,每一次训练都会花费大量的电费。所以,识别面貌相似者并不是技术上做不到,只是基于降低成本等因素综合考虑,我们不如采用多重验证来解决这个问题。
- 人脸识别与隐私保护如何兼顾?
北京科技报:有关人脸信息被泄露的新闻,引起了大众对个人隐私安全的担忧。我们要如何更好地保护相关隐私呢?
高新波:这是个很关键的话题,大数据隐私保护是我们始终在思考的研究方向。
我们最近在做一个保护个人隐私的视频监控系统,即在视频监控里实现“匿名化”。匿名化的方案有两种,一种是系统对人脸做变形处理,处理后的面孔人类无法辨认,只有机器仍可识别(A站在镜头前,电脑记录下来的却是不存在的Z)。通过如此“捏造”匿名人脸,可以保护隐私。
另一种是“换脸”,即在数据库内造出一个和现有人脸都有差距的面孔替换某个人,然后把原有的人脸用水印等方式嵌入其中。当需要追溯某个人的时候,通过技术就可知道这个人是谁;一般的系统没有这个技术,他们所能看到的就不是本人了。
我们的想法,是在监控相机里加一块芯片、一个模块进行匿名化处理,让镜头传出来的照片和视频不是‘本我’;同时,只授权公权力部门(如警方)掌握追溯信息的能力,通过这样的方式来保护我们的隐私。
北京科技报:您刚才说的“匿名化”会使人类无法辨别,但机器仍可识别;那么有方法可以让人能识别而机器不能识别吗?
高新波:可以。现在有一类新的技术叫做“对抗学习”,即在脸上贴特殊的贴片,干扰机器识别,这些贴片被称为对抗样本。如果将来要保护个人隐私不被过度采集的话,可能会应用贴片一类的东西,一旦我们贴在脸上,电脑、监控等就不能识别了,这个技术现在也有人在做。而且,这些贴片可以设计得比较小,方便现实生活里其他人辨认,只有电脑无法辨认。
为什么贴个东西电脑就无法辨认?因为人工智能的“可解释性”很差。换句话说,我们只知道它们能识别,但它们到底怎么识别却难以言说,因为它们所“深度学习”的,是神经网络设计出来的“特征”,人类根本无法理解这些特征。所以,科学家发现,有时在一幅图上添一点东西,电脑便难以识别,所以我们可以利用这个特点来拓展对抗样本的用途。
其实,人脸识别领域中,值得研究的地方还有很多。但保护隐私是目前最关键的问题。归根到底,我们还是希望科学技术被用于造福人类,而不是用来制造麻烦。
北京科技报:诚如您所说,人脸识别技术已经达到了一定的高度。但不法分子的“破解”花招也层出不穷,人脸识别似乎成为了潜在的安全漏洞和隐患。请问您如何看待这点?
高新波:这也是一个很重要的问题。科学技术像是一把双刃剑,一方面给大家带来了便利,另一方面又产生了隐患。
科学技术本身是没有价值观的。可是我们人类有价值观,知道是非、黑白,所以科技的价值观取决于使用者。如果使用者拥有正确的价值观,那么科技带来的就是正面作用,反之则带来负面影响。不过,二者的博弈也会促使科学技术进步,在不断解决问题的过程中向前发展。
由于技术的发展总是滞后于问题,我们现阶段必须尽可能地防止问题发生。这就引申出两条路线,其一是社会的教化,我们需要给用户正确的价值导向、价值引领;二是制度法规的约束力量,法律除了订立规章制度、约束以及严惩不法分子之外,亦应赋予相关主体很强的法律义务,敦促他们保护人们的生物信息。总之,我们既得“以德服人”,又得“依法治国”。
撰文/王慧深(实习) 编辑/丁林
来源:北京科技报