当前位置:首页 期刊杂志

情感计算的应用困境及其法律规制

时间:2024-04-24

文/王禄生

我国是世界范围内情感计算技术最为主要的研发与应用国之一。人脸识别、语音识别等前置感知智能技术的大面积应用为情感计算技术在近年来的迅速发展铺平了道路。相较于丰富的实践,我国法律界对于这一技术的关注尚不充分,因此有必要对其技术逻辑、实践应用、现实困境和法律规制等重要方面展开专门的探讨。

情感计算的技术逻辑

情感计算(affective computing)意指“与情绪或其他情感现象有关的、产生于或有意影响情绪或其他情感现象的计算”。从语词原意来看,“情感”(affect)包括“情绪”(emotion)和“心情”(mood)两个部分,前者主要是短期的,可以通过表情来体现,如愤怒、悲伤、愉悦;后者则具有一定的延续性,比如好心情、坏心情。所以“情感计算”实际上是一个宽泛的概念,它包括任何与个人情绪、心情状态相关的计算机程序,“情绪识别”是“情感计算”的有机组成部分。随着人工智能技术的发展,情感计算日益与AI结合。典型的比如“AI+情绪识别技术”之后形成的“情绪识别智能技术”。该技术利用人脸识别、语音识别等“远程生物特征识别系统”(remote biometric identification system)提取表情、语音、步态、姿势等各类生物特征(biometric data)信息,从而识别对象的情绪状态。本文正是在人工智能的视域下探讨情感计算技术,意指感知、识别、模拟、影响人类情感状态的各类智能技术的统称。

情感计算的技术逻辑大致可以分为感知(sensing)、识别(recognition)、模拟(simulation)、影响(influence)四个环节。具体而言,情感计算的第一步是通过各类传感器(sensor)实现对自然人各类生物信息的“感知”,这种感知可以通过非接触式的远程识别的方式来实现,也可以通过接触式的传感器来实现。现阶段情感计算在感知阶段的数据源具有多样性,主要是声音、表情、肢体语言、姿势等各类生物信息。在完成各类信息感知的基础之上,情感计算技术将进入“识别”环节。“识别”要借助各类情感识别模型。识别模型的生成主要采用有监督学习的方式。具体而言,就是依托各类基本情感理论,人为地将特定的生物信息与情感状态关联。在实操层面即通过人工标注,为各类“提取特征”添加情感标签,如语速快速、响亮可能对应恐惧、愤怒或喜悦的情感状态。在完成了足够多的标注之后,深度学习技术可以通过模型训练形成对各类自然人生物信息特征对应情感的识别模型。在此基础上,当有新的声音、表情等生物信息进入系统后,系统可以根据情感识别模型进行识别。当然,“识别”只是初级的应用。该类技术的终极目标是在“识别”基础之上使得计算机具备“模拟”自然人情绪的能力,并且能够根据不同情境,采取相应策略来“影响”自然人的情绪,也就是让机器具备情感智能,能够以最佳的方式识别和调节(自己或他人)情感的能力。

情感计算的应用观察

情感计算主流应用有两类:其一是情感计算的结果作用于被识别者本人,通过改变其情感状态而治疗疾病、提高体验,典型的例子是利用情感计算治疗自闭症;其二是情感计算的结果作用于被识别者之外的第三人,提供各类决策辅助,比如在招聘环节使用情感计算。在医疗领域,许多心理和生理状况,包括自闭、抑郁和中风,都会影响理解、控制或交流情感的能力。情感计算已被用于评估和治疗各种疾病,并改善与情感有关的交流。在教育领域,情感计算技术可以通过面部表情的识别来判断学习者的情况和学习状态。与此同时,该技术还可以让教师了解学生的内心感受,从而制订更具个性化的教学方案。随着在线教学的日益扩展,情感计算被认为可以提升师生互动质量,改善因为缺乏传统课堂学习氛围而导致的厌学情绪。在就业领域,情感识别的使用也出现了激增,例如在求职者或员工不知情的情况下进行工作能力判断。系统利用求职者的电脑或手机摄像头分析他们的面部动作、用词和说话声音,然后根据自动生成的“就业能力”得分,将求职者进行排名。商业领域的情感计算应用旨在根据情感的识别为顾客提供更为优质的服务。商店可以通过软件分析购物者的实时图像,以检测情感,进而有针对性地提供服务。此外,情感计算也开始应用于边境检查、案件侦查等执法领域,利用对不特定公众情绪的识别,发现异常情况、锁定嫌疑人。

情感计算应用的多维困境

(一)情感计算应用的法律问题

情感计算与人脸识别等知名的生物识别应用不同,后者旨在识别个人,而前者则是在识别个人的基础之上进一步推断一个人的内在情绪。因此,情感计算的应用会对公民基本权利造成不成比例的风险。首先,由于与人脸识别等感知智能技术在逻辑上具有前后承接性,情感计算技术的应用对人脸等生物识别信息的处理将直接与个人信息的诸多权能形成冲突。其次,情感计算的应用还可能对个人隐私权形成直接的侵犯。在公众场合通过非接触式的感知智能技术对公众情感隐私的分析具有“窥探”的意味,相较于人脸识别而言具有更强的“侵入性”(invasive),大大超出了公众在公开场合可以保持个人情感隐私的预期。尽管基于明显表情推断情绪可能不足以上升到“窥探”隐私的程度,但微表情或者因刺激而短暂出现的面部表情则是非自愿的情感泄露(暴露真实的情感),具有明显的隐私意涵。更不要说借助面部血流、瞳孔扩张等更加细微的表征而完成的对情感的“刺探”。最后,情感计算的部分应用还与人格尊严、平等保护等形成冲突。在智慧招聘推行过程中,通过情感计算,将受聘人群划分为“高情绪控制力”和“低情绪控制力”,这种带有价值导向的分类无疑会对人格尊严形成侵犯。更为重要的是,相关情感计算应用实质上需要根据计算结果对不同分类的人群采取差异化、个性化的策略。此种差异化对待可能对特定人群形成歧视。

(二)情感计算应用的伦理冲突

基础伦理学高度重视人类情感,影响情感的情感计算技术被认为会影响人的道德标准及自由意志。在经验主义伦理学中,情感被视为道德判断的根源。在大卫·休谟和亚当·斯密看来,所谓的错事,就是一种我们“道德情感”无法接受的状况;在功利主义伦理学的视野中,基本的道德义务是使幸福感最大化。换言之,情感是我们成为道德人的核心。在上述将情感视作道德基石的哲学流派看来,情感计算应用在影响了情感的同时也就影响了人类的道德标准。与基于情感的道德理论相比,康德认为道德的基石是根据理智原则而不是感情来行使自由意志。按照这种观点,情感计算因为可能影响情感,进而影响自由意志,因此具有深远的道德意义。具体而言,情感计算旨在模拟并影响人的自由意志,而自由意志在基础道德哲学中具有神圣不可侵犯的地位。从这个角度看,情感计算影响情感的尝试就显得“不道德”。

(三)情感计算应用的技术瓶颈

情感计算技术的底层依据来自“基本情感理论”(Basic Emotion Theory, BET)。该理论由心理学家保罗·埃克曼(Paul Ekman)在1970年提出,认为人们可以从面部表情中可靠地辨别出情绪状态,并且此种表情与情绪的关联具有跨文化的普遍性。不过,在情感计算的发展过程中,对上述假设的质疑始终持续。第一,外在表达与内在情感之间的关联存在不确定性。情感计算在技术逻辑上的根本问题在于它基于反向推理,即一个特定的生理信息被用来表示一种情绪体验。从计算的角度来看,所有这些来源都是生理信号,具有分析和解释上的共同困难。一方面,相同的生理信息可能表达了不只一种情绪,而实际上理解情绪需要更多的情境细节支撑。另一方面,在强烈刺激的环境下,受试者的生理信号和情绪之间可以建立较为明确的关联。但是现有技术尚未证明在微妙和自然的情况下可以可靠地检测到这种反应。第二,人们在不同文化、不同情况下,甚至在同一情况下,在沟通他们的情绪状态时,存在着大量的差异。综上所述,正是因为外在表达与内在情感之间的不确定性、多样性,以及数据标注的主观性,现阶段情感计算技术在准确性上难以得到充分保障。

情感计算应用的法律规制

(一)以“轻推”为限度的底线规制

情感计算应用的法律规制需要调和伦理学对情感自主性的强调与情感计算以影响情感为终极目标之间的张力。简言之,就是在综合考量伦理困境与技术困境的基础上,通过法律设定情感计算技术对个人情感影响的限度,进而有效避免情感计算技术被滥用的风险。笔者认为,可以借鉴行为经济学与行为科学成熟的理论框架,以“轻推”为限度构建一套情感计算应用的底线规制体系。“轻推”对应的英文“nudge”的原始含义是指轻轻推某人,尤指用肘轻轻推某人,以引起他们的注意。它是指通过正向强化(positive reinforcement)和间接建议(indirect suggestions),影响群体或个人的行为和决策,但个人仍然有选择自由。

按照上述理论框架,应通过法律明确规范情感计算技术对人类情感的干预限度和方式。(1)情感计算应用中施加的影响情感的措施只能以“轻推”为限度,不得直接“操纵/控制”(manipulate)情感。那种通过脑机接口(BCI)的方式直接作用于神经进而影响情感的方案与“轻推”的法律要求根本冲突。(2)情感计算应用中施加的影响情感的措施不得妨碍人们的自由选择,不禁止其他选项。(3)情感计算应用中施加的影响情感的措施不能显著增加选择者的负担,并且可以通过低成本的方式轻易避免。(4)情感计算应用中施加的影响情感的措施原则上只能是“积极助推”,禁止“负面助推”。(5)对于未成年人、精神病人、残疾人等易受伤害人群,作为法律保留事项,需要更为严格的限制和专业指导。通俗来讲,情感计算的“轻推”就是发现特定主体情绪存在一定问题,用各种策略“轻推一把”,让他/她能够回归正轨。当然,在特定情况下,比如医疗领域应用情感计算时,可以适当超越“轻推”的范畴,但需要更加谨慎的态度和专业的论证。

(二)以风险为基础的差异规制

情感计算技术的法律规制除了以“轻推”为底线之外,还应当按照以风险为基础的比例原则构建一套法律规制体系。申言之,就是根据情感计算应用可能产生的风险强度来动态调整法律规制的类型与内容。一方面,要合理考虑情感计算应用对权利与伦理的影响强度与范围;另一方面,严格按照风险的等级差异,等比例提供规制方案。对于“不可接受”的应用直接禁止,对于“可接受”的风险则分为“高风险”“中风险”“低风险”三类进行差异化规制。

所谓的“不可接受的风险”是指触碰伦理禁区和价值底线的情感计算应用。根据该技术现有的发展态势来看,主要有以下三种情形:(1)试图直接操纵、控制他人情绪的情感计算应用;(2)追求不正当目的的情感计算应用,比如旨在激起特定人群积极情绪(暴力、好战)的应用;(3)滥用技术,利用人性的弱点,比如未成年人、精神病人在年龄、身体或精神上的脆弱性,扭曲个人情感的情感计算应用。上述三种情形的情感计算应用产生的风险在法律上属于“不可接受”的范畴,因此应当完全禁止。

所谓“高风险”是指那种可能严重影响个人权利,尤其是教育、健康、安全等基本权利的情感计算应用。这里的“严重影响”是指基于情感计算的结果直接决定个人教育、社会保障、医疗、就业、安全、健康等基本权利的有无。也就是说,情感计算结论成为“剥夺”个人基本权利的直接依据。按照情感计算技术发展的趋势来看,主要有以下四种情形:(1)在教育系统中使用情感计算技术,用于确定进入教育机构的资格,或将对特定人群情绪控制能力的评估作为接受教育的一部分或者前提;(2)在就业领域使用情感计算技术,用于人员的招募和甄选,决定晋升或解雇;(3)在公共服务领域使用情感计算技术决定个人是否获得和享受某些必不可少的公共服务,如获得公租房、电力、电信服务等;(4)在执法领域使用情感计算技术判断特定公众的危险程度或供述的可信度,以决定是否采用非羁押措施、缓刑等。此类应用可能会对个人的教育、职业等权利产生极为深刻和广泛的影响。加之情感计算在技术上的不稳定性,对其应用还可能导致特定群体被排斥在享受特定基本权利之外。这实际上侵犯了尊严和不歧视的平等与正义价值观,导致特定群体在整个社会交往环境中处于特别被动的地位,并将此种歧视以技术形式固化。对于这类“高风险”应用需要严格限制,原则上禁止,只有公共服务机构基于公共利益而展开,且需要配合以全流程的监管措施。

所谓的“中风险”是指那种中度影响个人权利的情感计算应用,具体而言就是对个人权利产生实质影响,但并不决定特定权利有无的状态。尽管如此,考虑到对个人权利影响的实质性以及现有技术的不稳定性,我们仍然需要将他们归并为“中风险”应用。比如智慧教育中基于学生的情绪识别而采用差异化的教学策略虽然影响了不同学生的受教育权,但并未作为教育的准入资格条件而存在。对于“中风险”的情感智能技术,原则上可以应用,但是要构建一套全生命周期的监管措施。(1)风险管理机制:构建完备的情感计算应用风险评估系统,从伦理、法律和技术三个维度综合审查已经发生或者可能发生的各类风险,并对各类风险发生的应对措施做提前预案。同时,风险评估要在全生命周期内不断迭代与更新。(2)数据治理机制:构建数据获取、标注、训练的治理机制,提升质量,将风险和歧视的结果降至最低。比如在情绪识别的样本选择时需要考虑不同性别、民族的人群构成,保障训练样本的代表性;在数据标注时需要统一培训,按照一致的标准。(3)技术保障机制:情感计算应用的开发者应当保障技术具有实现开发目的的准确性、稳定性与安全性;要引入独立第三方对各项技术的性能指标进行充分的测试与验证。(4)流程备份机制:对应用的全过程进行记录以保证可追溯性。(5)信息透明机制:使用者应当向用户提供清晰、充分的信息,包括技术的现有准确性、安全性等内容都需要在使用说明中声明。(6)信息备案机制:将应用的相关信息提交相关主管机构备案。在应用发展过程中,要及时更新。

所谓的“低风险”是指轻度影响或者不影响个人权利的情感计算应用。比如在情感聊天系统中,根据对用户情绪的识别自动调整聊天方式。对于低风险的应用,法律上原则上不施加明显的规制,只是作出最基础的透明义务要求,比如明确告知用户正在与具备情感识别功能的系统交互。在此基础上,相关企业可以按照企业自律的方式合理选择全流程监管措施中的一项或者多项,以提升企业的合规能力。

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!