时间:2024-08-31
王 玥,张学睦,姚庆国
(山东科技大学 经济管理学院,山东 青岛 266590)
人们在经济生活和社会生活中企图以最小的代价获取最大的利益,经济生活中的代价和报偿是有形的,表现为金钱或物质,而社会交换中的代价和报偿在很多时候和场合中是无形的。[1]在数字化、信息化、智能化的发展浪潮中,人脸识别技术正被广泛应用于各个场景,为了获得相应的服务,人们不断向人脸识别系统提供个人面部信息。在获得更加智能化、体验感更好的服务的同时,作为交换的代价,也放弃了对个人隐私信息的保护。面部信息作为一种识别性极强的个人隐私信息,在实际应用中存在着巨大的安全隐患。因此,分析其背后隐含的隐私让渡代价,规范人脸识别技术的应用具有重要的意义。
人脸识别技术是通过捕捉人的面部特征,将其与已存储的面部信息进行匹配从而进行身份认证的一种生物识别技术。[2]与虹膜识别、指纹识别等生物特征识别方式相比,人脸识别具有以下几个特点:一是非接触性,人脸识别可以在不与识别装置进行触碰的条件下进行;二是非强制性,在识别过程中通过提取含有人脸信息的图像和视频流等方式自动与数据库中的信息进行比对,不需要强制人具体做出某种动作;三是隐蔽性,人脸识别可以在对方不经意间完成,具有一定的隐蔽性。因此,这种配合度要求低、匹配与识别效率高的生物特征信息识别技术得到了更为广泛的应用。
随着可见光与红外线人脸识别的结合、3D识别等新技术的发展,人脸识别技术进入了快速发展的时期,主要应用在刑侦破案与安防系统、出入验证与考勤系统、金融支付验证与解锁系统以及通过人脸捕捉实现动态监控等场景。人脸识别技术的应用为人们的生活带来了便利,提高了商业、监管等活动的效率。[3]而服务效率的提升与面部隐私信息的保护始终是人脸识别技术的应用中需要重点权衡的问题。通常认为“推广智能便利的技术、提升工作与生活的效率的目的在于更好地为人的生存与发展提供服务”[4],而隐私信息特别是人脸信息等生物识别信息是体现人类生存价值、保障人格完整性的关键要素,因此,我们应当对人脸识别情境下的隐私让渡问题予以充分的关注。
提供技术与服务的平台鼓励用户让渡隐私信息,以提高营运水平或者满足自身发展的需要。[5]服务提供方不断宣扬技术的优越性、服务的便利性,营造一种“不享受服务就会吃亏”“应用不够智能化就会落后”的氛围,轻则诱导,重则以拒绝提供服务为筹码强制用户让渡个人隐私信息。在这种不对等关系的压制下,用户不得不向“流氓”系统提供手机号、位置、照片等隐私信息。比如,很多软件注册时都需要绑定手机号,并且没有提供其他的验证方式。隐私让渡的另一个原因在于个体本身对特定服务的需要。即使用户对隐私问题可能存在一些担忧,但是多数情况下还是会为了便利或者享受更智能化的服务而提供个人隐私信息。[6]虽然用户已逐渐认识到隐私保护的重要性并进行了相应的安全设置,但是在系统架构与隐私政策的演化中用户隐私信息的让渡并没有减少。[7]如今,隐私信息的让渡已经从手机号、电子账户等信息延伸到了识别性更强的人脸信息等生物信息领域。
人脸识别技术情境下的隐私让渡主要表现在两个方面。一是用户主动向人脸识别系统提交人脸信息,即“让”系统识别并存储自己的面部信息。例如在刷脸购物中向支付系统提供个人面部信息,在智能门禁中向门禁系统提供人脸信息。二是用户无意间透漏的个人面部特征“过渡”成了人脸识别系统所需的数据。例如在社交账号上发布的自拍照,在抖音、快手等视频互动软件上上传的包含个人面部信息的小视频等,都有可能成为人脸数据库的素材。由于人脸信息的隐私保密性相对较弱,提取成本较低,在一些人脸识别场景中人们可能成为“行走的密码”。这也不禁引人深思,作为生物特征识别界的“代表”,其使用的可靠性和安全性能否得到保障。同时,刷脸应用、换脸软件越来越多,在享受服务与保护隐私之间,人们通常会选择前者,而对于人脸识别技术的过度依赖和信任往往会使人忽略其中包含的风险与代价。
互联网技术给人类生活带来了便利,同时也留存了很多行为数据。这些数据在互联网记忆中不断累积,成为了监测人类行为的工具,人类被迫成为“透明人”[8]。而人脸识别技术的兴起,面部信息的让渡又给“透明人”增添了筹码。在人脸识别场景下,用户让渡的隐私可能不仅仅是个人的面部几何特征,面部信息中包含的年龄、性别、情绪特征等元素也可能被识别与记录。同时,在人工智能与深度学习背景下,通过对人脸信息的识别,可以挖掘出其他的个人隐私信息。如果在互联网中将面部信息与兴趣、性格、消费习惯甚至行踪轨迹等信息进行串联,那么个体的信息画像将会有更加直接与清晰的轮廓,在互联网记忆中形成一个不断成长的数据自我,成为巨大的安全隐患。在线上,带有个人“头像”的数据在网络空间中无线延伸;在线下,无处不在的摄像头与人脸识别相结合,使个体活动处于高度监视的环境中,真正使人类陷入“隐私裸奔”的困境,进一步增加了个人隐私保护的难度。
这一切的源头在于人们为了获得更加便捷或者体验感更高的服务而不断地向服务提供商提供自己的人脸信息,却没意识到自身的行为已然对个人隐私构成了威胁,并可能持续对未来产生重要影响。比如,2019年8月底换脸APP “ZAO” 风靡了整个朋友圈,用户在APP内通过人脸识别完成肖像权验证,再上传一张足够清晰的正面照片,就可以将自己的脸替换成“周润发”“白展堂”“玛丽莲·梦露”等人的脸,其人脸融合效果非常逼真。而在最初版的用户使用协议中提到,“在您上传及/或发布用户内容之前,您同意或者确保实际权利人同意授予ZAO及其关联公司以及ZAO用户全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利。”也就是一旦使用了该软件的换脸服务,将会把自己的面部信息隐私让渡给服务提供者。虽然这一协议被曝光后该平台立即对相关内容进行了修改,但是市面上还有很多应用暗含类似的霸王条款。比如在APP “颜值排行” 的使用条款中也有提及,“用户在任何时间段在App发表的任何内容(包括自拍)的著作财产权,用户许可App开发者在全世界范围内免费地、长期性地、不可撤销地使用的权利。”这些隐藏的霸王条款会赋予服务提供商持续使用我们面部数据的权利,而具体的使用时间、使用方式都无从得知,个人信息将会长期处于曝光状态。以牺牲自己的隐私为代价换取智能化服务,抑或选择保护个人面部信息安全,是每位服务使用者不得不面对的问题。
人脸识别技术的应用可能形成对特定群体的歧视,比如一些具有特殊面部特征的群体或者通过面部信息识别出其他特殊信息的群体就可能成为重点关注的对象。这就侵害了特定人群的基本权利,也造成了社会排斥的问题。已有研究表明,在人脸识别中存在种族偏见。[9]在机场、火车站等人脸识别应用情景中,部分群体的面部信息可能由于系统的算法偏见无法被正常识别,从而不得不接受工作人员的审问和例行检查。除了在对个体面部扫描时存在偏见与误判外,在面部识别后所享有的服务中也可能存在歧视。在日常生活比如求职或者租房等过程中,通过对人进行面部扫描就可掌握对方的个人信息,从而将人群划分为三六九等,并根据不同的等级提供性质不同的服务。而分类依据的法律是什么,服务提供商是否有对用户进行分类的权利,分类标准是否合理,是否存在侵犯公民的合法权益的歧视性操作都没有定论。这种差别待遇可能已经影响了服务的体验感,违背了我们最初选择服务的意愿,也容易使人陷入信息闭塞的死循环中。
我们提供人脸信息是为了享受更优质的服务,而服务本身所包含的算法歧视在无形中对我们尊严、人格的伤害也是我们无法回避的代价。我们在无法确保人脸识别系统算法的公正性,面临在无形中按照某一规则被分类、甚至被边缘化的情况时,不得不思考,是不是真的需要以让渡识别性极强的隐私信息为代价而换取某种服务。
公众大多都了解人脸识别技术是对个人面部信息的提取与识别,而对人脸信息后续的存储和使用问题少有关注。在“人脸识别第一案”中,动物园委托第三方技术公司提供人脸识别技术,将游客入园方式由原来的指纹识别强制改为人脸识别。游客的人脸信息会被存储在技术提供方的服务器上,而我们无法确定储存人脸信息的这家机构是否有能力保护游客的信息。如今已有互联网平台公开兜售未经肖像权所有人授权的人脸照片,明码标价进行交易,如8元可买3万张人脸照片,3000元可买24000套人脸照片等,其中还包括一个人不同表情的脸部照片,从侧面反映出人脸信息保管的安全系数并不高。
在人脸信息的不当应用中有两个突出问题。一方面,存储我们面部信息的组织本质上是具体的人在运作,即大量身份指向性极强的人脸信息是由一部分人掌控的,这部分人将如何使用我们的个人数据,会不会因为一己私欲而违规操作,都无从得知。另一方面,人脸识别要通过特定的代码进行翻译、筛选对象,这种代码的操作自然有被黑客入侵的可能性。而随着人脸伪造技术的发展和反实名制产业链条的日趋成熟,破译人脸信息,用“假人脸”顶替“真人脸”已成为可能。有了人脸照片和系统识别的人脸特征,就可以捕捉相关的人脸特征信息进行针对性的训练,复制人脸图像,包括来回转动或者眨眼等,从而通过使用他人的面部信息开启对应的服务。比如,越南网络安全公司Bkav通过3D打印的人脸塑料框架、雕刻的硅胶鼻子和打印在纸上的二维嘴唇和眼睛,可以拼凑出一个人脸模型,对准iPhone X就可以实现人脸解锁。尽管这一破解技术需要对目标iPhone手机用户的脸部进行详细的数字扫描和测量,但是整体的制作成本并不是很高。除了3D人脸模型,还有肉眼看起来与真人几乎一样的3D人脸面具。位于美国圣地亚哥的一家人工智能公司用一个特别制作的3D面具,成功欺骗了包括微信和支付宝在内的诸多人脸识别购物支付系统。[10]虽然支付宝和微信都作了紧急回应,表明公司内不存在任何因为类似技术被盗的案例,但是随着3D打印技术的日趋成熟,人脸识别系统被“假人脸”攻破的风险将会急剧增加。在基于2D图像识别的人脸识别运用场景,人脸识别系统被破解的成本更低。2019年10月,浙江一学校的学生在课外科学实验中发现,只要用一张打印照片就能代替真人刷脸,骗过小区里的丰巢智能柜,取出父母的货件。由此可知,人脸识别算法跟人的智能判别、智能识别还存在一定的差距,人脸识别有一定概率会被面具等假人脸突破。我们在批判系统本身存在漏洞的同时,也应该反思自身是否对人脸识别技术过于依赖。如果这样的漏洞出现在门禁系统、电子账户登陆系统中,或者用假人脸来申请信用贷款、注册公司,后果将更加严重。面部信息可能被他人盗用进而代替本人接受服务,也是我们在选择提供人脸信息前应该考虑的代价。
当人脸信息被不法分子获取时,将会产生非常严重的后果。可能会被纳入监视体系,个人的行为规律将被记录,对自己的生活造成威胁或伤害,甚至人身安全无法得到保障。种种信息使用不当的行为,已经违背了信息收集的初衷。[11]同时我们应该认识到,与一般的个人隐私信息不同,面部信息具有更高的敏感性,一是它与个人自由和基本权利密切相关;二是它的识别特征几乎是无法更改的。因此,人脸识别技术的不当使用对个体的打击将是精准且持久的。比如在恐怖行动中,拥有人脸信息的恐怖分子将会快速且准确地找到目标,进行实时定位与追踪。在这种情况下,个体将毫无隐私可言,无隐私即无自由,人身权利将受到极大损害。并且人脸信息与姓名、手机号、住址等较易更改的隐私信息不同,一旦通过面部信息对身份进行锁定,将会长期受制于恐怖分子的监视,在精准且持久的控制下,遭到的打击报复也将会是致命的。
人脸识别技术是当今技术进步与发展的产物,我们在顺应时代的发展、享受人脸识别技术带给我们的红利的同时,也应该审视其中蕴含的风险与使用代价,采取针对性的措施,多角度、全方面地减少人脸识别技术的应用代价,促进新技术与人类发展的良性互动。
技术的研发与使用都有一定的边界。应合理划分人脸识别技术的应用场景,明确人脸识别技术的适用范围。2019年8月,瑞典的一所高中因使用人脸识别技术来统计学生的出勤率被瑞典的数据监管机构处以20万元瑞典克朗(约合人民币15万元)的罚款。该机构指出,鉴于数据的管理者与数据的持有者之间存在明显的信息不对称,校方与家长之间的协议不足以为人脸识别技术的使用提供有效的支撑。此案例引发了对人脸识别技术适用范围的思考,譬如对于课堂这类没有特殊安全需求的公共场所,是否有必要应用人脸识别技术对个体进行识别以及对行为进行监控?作为全球首个禁止使用人脸识别技术的城市,旧金山颁布的《停止秘密监视条例》中提到,“人脸识别技术侵害公民权利和公民自由的可能性大大超过了其声称的好处;这项技术将加剧种族不公正,并且威胁到我们的生活不受政府持续监视的能力。”美国马萨诸塞州的萨默维尔市也通过了禁止使用面部识别技术的法令,该法令禁止市政部门和当地警方使用人脸识别软件,禁止在法律诉讼或刑事调查中使用人脸识别软件系统产生证据或数据,但对州或联邦执法部门使用面部识别的范围没有限制。欧盟《一般数据保护条例》(GDPR)第9条规定,特定识别自然人的生物学数据,应当禁止处理。[12]对于一些例外情况,也详细列举了多达10条细则。而我国对于人脸识别技术的应用场景和适用范围还没有相对明确的界定,需要进一步细化。可参考欧盟《一般数据保护条例》的第4条规定,以抽象化的形式规定个人数据范围,从而规避列举式不周延以及滞后性缺陷。[13]根据使用需求和应用场景的不同,具体可分为三类。第一类是基于重大公众安全、侦察犯罪和打击违法行为的需要应用人脸识别技术。在此场景下应充分发挥人脸识别技术在保障公民安全和打击犯罪中的作用,积极调查取证,同时应明确除特定执法部门外,任何机构、企业和个人都无权使用人脸识别技术跟踪和调查个体的私人生活。第二类是基于商业服务的需要应用人脸识别技术。在此场景下应充分考量人脸识别技术的应用所带来的收益与价值能否抵消个人生物信息被泄露与滥用的风险与代价,是否有必要全面推广人脸识别技术,人脸识别技术提供商应就相关风险作充分而明确的告知,并在醒目位置张贴人脸识别标识。第三类是在一些譬如信息不对称的特殊场景中,应对人脸识别技术使用的合理性作进一步的探讨,启动必要的论证程序,比如召开听证会公开征询意见,提高决策程序的透明度。
防止人脸识别技术的滥用,除了在其应用范围上进行细化与研究,还应有相关的法律法规对人脸信息的使用进行规范。目前,国家已经出台了一系列与个人信息保护有关的法律,如《网络安全法》《个人信息保护法》《数据安全管理办法》等,而针对人脸信息使用的法律法规并不多,法律体系建设尚不完善,对新技术环境下服务提供者以及服务使用者的权利义务还没有较为清晰的界定。因此,国家应进一步细化完善相应的法律法规,明确人脸信息收集、存储、使用等环节的技术标准,从而实现对面部信息使用的全生命周期制度设计。具体在人脸信息收集环节,应明确收集的目的、方式、合理性;在存储环节,应明确实施加密处理等保护措施,防止信息泄露;在使用环节,应明确面部信息的使用范围、使用期限等,一旦超过规定时间,应立即删除,将风险降到最低。
在完善人脸识别技术应用的相关法律法规的基础上,应明确数据安全责任人,加强监管和规范,对强制收集、非法转卖人脸信息和违规使用人脸识别技术的企业和机构,除了“行政约谈”,还应严格追究法律责任,进行实际层面的处罚,并完善被侵害人的补偿机制。同时应明确执法主体,提高执法效益,避免形成执法的“真空地带”。比如欧盟成立了数据保护理事会,实现了对数据的统一集中监管。[14]
应用人脸识别技术的企业或相关机构应严格按照相关主管部门和国家法律法规的要求,对人脸识别技术运用过程中可能存在的问题进行自查整改,建立人脸识别技术合理使用的行业标准。一是要建立人脸识别系统的安全标准,提高行业准入门槛。人脸识别的运用需要进行严格的安全认证,具备相应的安全能力,防止用户隐私信息被窃取,防范“假人脸”或其他手段对系统的侵入。二是要将算法歧视审查嵌入技术标准。[15]审查人脸识别技术使用中的算法歧视问题,对不良建模内容加以整改,使算法的设计与运行限定在伦理允许的范围内,保证算法的公正性、透明性[16]。针对人脸识别算法中的种族偏见问题,要优化各种肤色的算法设计,提高训练数据的质量,对容易出错的环节,通过深度学习等现代科技手段提高系统的识别准确率。对于根据人脸识别后关联出的其他个人信息提供差别服务的问题,行业内也应制定统一、分级的信息关联范围标准。一方面可以杜绝企业为了恶意竞争过度搜集使用相关的个人信息,另一方面可以使用户根据自身需求选择不同信息关联级别的服务,避免在不知情的情况下被自动归入某一类别,丧失接触多元服务的权利。三是要规范人脸识别技术的推广标准。在推行某一服务需要获得人脸识别许可时,要充分告知用户并要征得用户同意,不得强迫用户让渡隐私权。如果对某一环节推广无差别使用人脸识别技术,就会给个体造成私有空间被压缩的约束感和焦虑感。因此,在用户拒绝提交面部信息时,应提供其他替代性的授权方式。例如,在账户登录时提供多种验证方式,在客运站提供人脸识别通行和人工检验通行,使用户在便捷与隐私之间有自主选择的权利。同时,还应提供退出机制,为用户提供删除个人面部信息的途径。在删除人脸数据后,服务商不得终止服务并保证服务的质量不低于人脸信息收集之前的水平,保障用户享受基础服务的权利。
此外,人脸识别技术服务提供方还应从责任意识和伦理道德层面对自身进行约束,将道德规范内化为内在的自律力量。坚持“以人为本”的理念,站在公众的角度进行设计,维护人的尊严,保障人的权利。[17]技术运用的过程中要坚守责任伦理底线,勇于承担社会责任,保持“求善”精神。[18]行业标杆和技术领先企业应充分发挥其引领作用,带动整个行业依法依规收集和使用用户人脸信息。
人脸识别技术是面向公众使用的技术,其收集的人脸信息具有高度的敏感性,与一般的个人信息有本质区别,因此应该充分考虑公众诉求,推动公众参与讨论。首先要意识到当前公众对个人面部信息保护的认识还不足,对人脸识别技术应用中可能存在的问题还不够了解,因此要通过多方位的宣传与教育,培养公众的技术素养和信息安全意识,增进公众对人脸识别技术的了解。其次,要搭建公众参与平台,赋予公众提出质疑的权利。信息的提供与否、如何使用应当取决于权利人的自由意志。[19]现行法律也有规定,具有可识别性的个人信息比如邮箱、电话号码、住址等在收集时需要征得被收集人的同意。对于人脸信息,其可识别性更强、敏感度更高,在收集和使用时更需要征得当事人的许可。当我们被强制应用人脸识别技术时,有权利对其使用的合理性和必要性提出质疑。因此,应搭建公众参与技术治理的平台或窗口,获取更富有建设性的意见与评价,使整个社会以更合理的方式使用人脸识别技术。优化公众的体验感和获得感,使公众看到改变的可能,进一步推动公众参与。再次,要积极引导社会组织和学术界探讨人脸识别技术应用问题的治理之道,开展相关的学术研究活动,开展第三方独立评估,充分发挥多元共治的智慧。
当前,计算机处理能力的提升和人工智能的发展不断刷新着人们的认知,影响着人们的生活。作为人工智能领域中落地性最强的应用技术[20],人脸识别给人们的生活带来了便利,同时也带来应用风险与伦理挑战。惟有划清人脸识别技术的应用界限,从法律层面、道德伦理层面对技术的使用进行规范和治理,制定统一的行业技术标准,充分考虑公众的隐私保护诉求,才能使每个人更有尊严、更自主地享受技术红利,促进技术创新与人类发展的良性互动。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!