时间:2024-04-24
郭俏 刘玉涵 莫雅涵
摘 要:社会接纳度研究将从强人工智能的法律主体地位问题、道德伦理思考以及带给社会经济的哲学思考三个角度展开。强人工智能在法律中是“自由人”,即拥有法律主体地位是其在法治社会的基础,因此主体研究是接纳度研究的重要组成部分。强人工智能可能拥有人类的形态和意识,是否以人遵循的社会道德来要求强人工智能,在判断社会对其的接纳程度上有重要意义。科技不断发展,新一轮的产业革命逐渐到来,更好地引导资本与技术的协调发展,构建新人工智能经济生态也将会是接纳研究的一个重点。
关键词:强人工智能;法律主体地位;伦理道德;经济哲学思考
中图分类号:C916 文献标志码:A 文章编号:1673-291X(2023)23-0037-03
未来,随着人工智能的更高形态——强人工智能的出现、发展,甚至广泛的应用,在强人工智能拥有人的姿态和意识时,我们可能会面临的其中一个重要而复杂的议题:强人工智能与人类相似甚至相同的法律主体地位以及法律将对其有何限制。在探讨该问题时,考虑到强人工智能拥有人的属性,我们又必须将与其相关的伦理道德纳入思考,然而道德判断的驱动力除理性的反思平衡之外,又包括情感的直觉体验,而强人工智能可能缺乏人类的情感和道德判断力,使得一些伦理道德问题难以解决。我们需要深入思考如何在维持人类与强人工智能共同体的前提下,推动其发展,规范其应用。更进一步则是某种意味的哲学思考和映射到表层的经济影响。在此过程中,强人工智能的发展对经济格局和发展的影响问题也将逐步浮出水面,如何将其应用到促进经济社会发展的浪潮中,这个过程也会引发一系列对于促进生产力发展的哲学思考。
一、强人工智能的法律主体地位问题
今年以来,ChatGPT在各行各业的高应用性值得惊叹,在法律人工智能界的应用同样获得了较高期待。未来可能会出现的强人工智能技术有望破除法律人工智能的自然语言理解瓶颈。不仅如此,凭借其超强的学习能力,未来的强人工智能很有可能作为律师甚至是被告出现在法庭。因此,对于强人工智能是否应该获得法律主体地位以及法律对其的限制度有待研究。
(一)强人工智能获得法律主体的现实必要性
目前人工智能相关法律问题的焦点主要集中在人工智能系统上,强人工智能犹如人体中的灵魂,赋予机械以生命[1],一旦真正的强人工智能面世,同样具有人类面孔甚至意识的“机械”不再适用于任何一条法律,這必将引起轰动并使得现行法律秩序产生变动。
法律人格是适用现行多数法律的前提,人工智能会影响各个法律领域,民法、刑法或其他法律均面临人工智能法律人格的争议。法律主体的确定对解决任何争议都至关重要,因为只有先确定法律主体,才能接下来讨论法律责任的分配问题。对人工智能是否被承认为法律主体的讨论也因此而起。
(二)赋予其主体地位的路径
从法理学上来看,判断主体是否为法律主体需要从三个层面入手:能否做出独立的意思表示、是否拥有独立的财产、能否独立承担责任。因此,赋予人工智能法律主体地位的路径也应当从这三个维度进行[1]。
强人工智能在未来或许可以根据现实需要,通过人格拟制技术,获得有限的法律人格和主体地位。并且为了实现法律背后的制度目的,人格拟制技术的运用也有利于构建法律关系,并且推动人们做出正确的价值判断。
不过,在何种情形、范围、限度内赋予人工智能的法律主体地位,理论与实践尚欠缺应有的回应。赋予人工智能主体地位的同时,也应对强人工智能设置权利边界和权利保留,明确其法律和道德权利和行为效力的限度[1]。
(三)赋予其法律主体地位的意义
赋予人工智能法律主体地位,不仅仅是道德考量,同时也是关注法律关系的实践需要。承认人工智能的法律“人格”,在一定层面上等于构建了新型智能社会的法律模式,这意味着需要更加合理地界定其权责范围、设计科学的相关法律制度,从而使法律主体得到延伸,塑造一个价值多元的社会。
(四)赋予其法律主体地位的社会考量因素
其一是技术上能否界定人工智能系统的范围,其二是经济上能否提高社会福祉,其三是法律上是否存在相应规则不健全而需要加以规范的紧迫现实性,其四是精神主观上存在推理能力与道德责任[2]。
基于以上考量因素,在避免贸然承认强人工智能具有完整的法律主体地位的同时加以人类限制,以便人工智能技术的发展更好地服务于社会发展。
二、强人工智能相关的伦理道德思考
未来,人工智能的高阶形式——强人工智能会走进社会生产生活,因其终归是“机械”,可能缺乏人类的情感和道德判断力,使得一些伦理道德问题难以解决。因此,对于其道德和伦理问题的思考显得尤为重要。
(一)强人工智能是否应遵循人类道德准则
传统社会的道德调整人与人的关系,而现代社会将道德关怀对象扩大到自然,是否应该以人遵循的伦理准则来要求强人工智能是思考的第一顺位。若强人工智能出现,在人与人工智能的关系上是否还应坚持人类中心主义。中国人民大学伦理学与道德建设研究中心曹刚指出:“人工智能是人造物,在存在论的意义上,人的本体地位不可动摇,类似于ChatGPT这样的强人工智能其过人之处是对人类知识的储备,但究其本质也仅仅是‘拼凑性的知识创造。”[3]所以当强人工智能更多展现出与人相似的特性时,人类是否应给予其相应的“人权”成为强人工智能一大主要伦理问题。
(二)强人工智能引发的隐私和安全问题
未来,许多强人工智能技术要使用大量的数据训练模型,以增强其智能和自主学习能力。而这些数据可能会包含许多敏感信息,如个人浏览史、购买习惯、地理位置等,这些信息容易被黑客攻击盗用从而造成个人隐私泄露。在安全层面,霍金、施密特等都曾发出警惕强人工智能威胁人类生存的警告。强人工智能技术容易被黑客利用来攻击系统,从而威胁国家、金融、医疗等安全领域。安全往往与责任息息相关。按照现有法律规则,因为系统自主性过强,其开发者也难以预测,包括黑箱的存在,很难解释事故原因,所以未来可能会产生责任鸿沟。
(三)强人工智能与非中立的算法
许多人认为不带人类偏见和情绪的算法是一种客观的数学表达,不会产生歧视。但其实算法并非是中立的,它更多是一种不透明的算法黑箱[4]。算法决策很多时候是一种预测,用过去的数据预测未来趋势,预测结果由算法模型和数据输入决定。尤其在强人工智能背后,容易受程序员和资本等的操纵,当系统被输入偏见和歧视,便产生非公正的判断和推论,从而造成对某些群体的标签化看法、污名化报道和不公平待遇。而算法歧视可能是具有自我学习能力的算法在交互过程中习得的,自身无法区别什么是歧视,什么不是歧视。例如一些图像识别软件将黑人错误地标记为“黑猩猩”或者“猿猴”。2016年3月,微软公司在美国的Twitter上上线的聊天机器人Tay在与网民互动的过程中,成为了一个集性别歧视、种族歧视等于一身的“不良少女”[5]。可以想象如果将算法应用在犯罪评估、信用贷款等关切人身利益的场合,产生的歧视必然损害个人权益,带来巨大危害。
(四)强人工智能伦理问题应对策略
王淑芹教授在中国社会科学伦理论坛上指出,深入探究人工智能技术的“是”与“应该”、“道义”与“功利”、“自由”与“责任”的关系,是发挥好伦理学价值规范引领作用的理论基础。涉及人机关系、隐私保护、智能机器人权利等方面,需要制定相应的策略。
1.完善相关法律法规,规范强人工智能发展。建立符合实际和法律规范的法律法规,明确智能机器人的责任、权利、隐私保护和审查制度等。比如当聊天机器人在提供服务时出现错误,产生不良后果时,问责制度就变得尤为重要。涉及人工智能的道德责任与法律责任,开发者、用户和平台在内的多方参与者需共同面对这一挑战。相关制度的全面宣传和落地,也将有利于社会对人工智能伦理问题的认识和应对。
2.加强安全隐私保护,提高技术透明度。加强对强人工智能算法和应用技术的测试,建立完善的安全机制,确保机器人的可用性、安全性和机密性,严查安全漏洞、黑客攻击和隐私泄露等问题,加强大数据加密、防护措施。通过透明度的提高加强对人工智能算法的解释和预测能力,可以减少技术使用的风险。健康、稳定、可控的强人工智能技术才能真正服务社会,获得大众的信任。
3.消除偏见与歧视,促进人机合作。开发者应尽可能确保训练数据的多样性和公平性,减小机器人在提供服务时产生歧视或偏见的风险。在营造平等的环境下,强人工智能可以与人合作,能取代人类完成一系列复杂危险的任务,提高社会效率,降低经济成本,但其使用应在人类掌控之下。强人工智能机器人需自主提供人与技术相互协作的接口,允许用户根据自己的偏好和需求使用。强化智能机器人与人类的互信与协作,才是强人工智能技术应对伦理问题的有效途径。
三、强人工智能对社会经济的影响以及哲学思考
未来,强人工智能的出现,会给经济发展带来质的飞跃,同时,在此过程中生产力发展引发相应的思辨哲学思考也会在社会范围内大幅增加。
(一)强人工智能对社会经济的影响
人工智能的不断升级和应用对社会经济带来巨大的发展机遇的同时,又引发了一系列问题和挑战。在推动其发展的同时,需要认真思考并采取积极措施应对相关问题,以实现其对社会经济的可持续发展。
1.劳动力市场的变化。强人工智能的应用会对劳动力市场分工产生重要影响。一方面,其使得部分重复性高、技术含量低的劳动力就业岗位减少,加剧失业问题。另一方面,随其技术的应用,社会对能够了解并掌握强人工智能的人才需求增大,新的工作岗位和职业将不断涌现。
2.产业结构的变革。强人工智能的应用会使得产业生产效率提高,配置优化,可以显著促进经济的增长,以及加速各行各业智能化和自动化水平的提高。未来强人工智能的迅猛发展也会相应地促进产业结构的变革。自动驾驶、智能物流、人工智能医疗等产业的崛起,为经济增长和社会发展带来新动力,传统产业也将面临数字化和智能化转型的重大决策问题。
(二)强人工智能与哲学思考
强人工智能的发展会引发一系列的哲学思考,涵盖了伦理、道德、人类与人工智能等多方面关系,如用户的数据被污名化和滥用化的可能性以及给当事人带来的社会性伤害问题。除此之外,人工智能算法决策的责任认定也是一个重要难题。人工智能决策过程极为复杂,即使开发者都无法完全解释系统的决策依据。因此,当人工智能系统犯错时,如何追责和认定责任成为一个困难的问题。
哲学终极三问“我是谁”“我从哪里来”“我到哪里去”至今无法得出一个明确的结论。但人们在回答这三个问题的时候,大脑的思考涉及事物的本质和定义,事物的原因、过程和机制,以及事物的目的、意义和价值等诸多哲学领域。但对于人工智能而言,虽然其有了自主意识,但可能仍缺乏对应的情绪感知和管理,导致其问题的回答可能依赖于训练阶段学习的数据和算法,这也就意味着,强人工智能无法超脱于数据之外,缺乏理性的反思和直觉的情感体验。
(三)研究经济和哲学问题的意义
强人工智能的哲学思考和社会接受度的研究不仅有助于我们深入理解人工智能对经济和社会的影响,还可以为政策制定者提供指导,帮助构建智能经济生态,实现可持续发展和社会公正。通过研究强人工智能的哲学问题,我们可以探索如何引导资本与技术的协调发展,促进人机协同创新。在推动强人工智能发展的同时,我们需要认真思考这些问题,并及时制定和调整相应的政策,以确保强人工智能发展在伦理道德和社会发展等方面的可行性。
未来,随着人工智能技术的发展,人们对强人工智能的到来喜忧参半。根据欧盟委员会发布人工智能伦理准则七个方面,“可信赖人工智能”值得借鉴,但在具体操作的问题上,更应注重底线思维,人类需要面向未来做出积极思考与探索[6]。
四、結束语
强人工智能的社会接纳程度受多种因素的影响,是一个复杂的过程。首先,对公众的教育和培训程度,决定了公众对强人工智能的认知和态度。其次,法律体系的完善程度决定着其发展涉及的众多道德法律问题是否可以被解决,从而决定公众对强人工智能的信任度。此外,不同文化和道德价值观对于强人工智能的社会意识也会产生深远影响。未来,强人工智能仍会不断发展,给经济社会带来更深远的影响。通过加强公众教育程度,完善立法体系,促进不同文化交流并坚持可持续发展,我们可以更好地引导和推动人工智能技术的发展,更好地为社会经济的可持续发展和人类福祉作出贡献。
参考文献:
[1] 朱凌珂.赋予强人工智能法律主体地位的路径与限度[J].广东社会科学,2021(5):240-253.
[2] 丁佳伟.论人工智能的法律主体地位[D].桂林:广西师范大学,2021.
[3] 李俊平.人工智能技术的伦理问题及对策研究[D].武汉:武汉理工大学,2013.
[4] 陈立鹏.人工智能引发的科学技术伦理问题[J].文学教育(下),2012(8).
[5] 李美琪.人工智能引发的科学技术伦理问题[J].山西青年,2016(8).
[6] 伍元吉,胡滨.人工智能的伦理挑战探析[J].江西电力职业技术学院学报,2020,33(3):166-168.
[责任编辑 白 雪]
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!