当前位置:首页 期刊杂志

我国亟待建立人工智能算法审查机制

时间:2024-05-04

周游

2017年4月,美国《Nature》杂志发表的一项研究成果表明,当智能算法通过分析处理人类书写的文本来学习词句的含义时,也会获得类似于人类偏见那样的刻板印象。算法,是人工智能自主决策的关键。人工智能的应用,为人类社会带来巨大机遇的同时,也带来因算法而导致的歧视、错误等问题。因此,加快建立人工智能算法审查机制有助于维护我国国家、社会安全和抢占产业国际话语主导权。

建立算法审查机制的必要性

算法本身无法实现技术中立。技术是中立的,但算法本身不是中立的。一方面,算法的基础是数据,基于错误的或者不准确的数据,算法决策得出的结论自然是错误的、有偏差的;另一方面,算法是人工智能的底层构架,算法过程看起来是非人为的决策行为,但其实,算法内嵌程序不可避免地会带入设计者的价值取向、伦理道德素质、指标标准、结果导读等因素。

算法本身不具有公开透明性。智能时代,人类将选择权和决策权让渡给算法,就必然导致算法将成为监管的核心。算法具有高度技术性,其运行机制和决策依据, 只有程序员和相关人员能够知晓,竞争性商业机密也往往成为算法不能向公众公开、透明的主要缘由。因此,必须有相应的机制能够对算法进行监管,能够在公众质疑时公开或予以解释,以此保证算法是符合公众利益、伦理道德取向以及没有违反现有相关法律制度。

算法在一些领域已经开始主导人类选择方向和内容。搜索引擎、浏览器、新闻客户端等,凭借强大的算法,分析并解读用户的使用习惯和兴趣,可能会不断地向用户推荐大量鱼龙混杂的信息。算法沦为商家追逐利益的工具,“标题党”泛滥,价值取向跑偏,内容沦为附庸。同时,算法基于特定标准的推荐还会导致用户封闭在自我喜好和习惯的信息孤岛之中,制约获取异质化信息和内容,长此以往,将导致人类自我封闭,不利于创新。

可借鉴的国外算法规制经验

美国加强行业自律制定算法基本原则。2017年1月12日,美国计算机协会下属美国公共政策委员会发布文件,阐述了关于人工智能算法透明化和可责性七条原则。具体如下:(1)公众对算法的了解,应该让公众了解自动决策的程度。(2)错误决策的救济,对错误决策可以进行调查并予以纠正。(3)责任认定,算法设计者而不是系统本身对基于此算法所做出的决策负责。(4)解释,无论算法的逻辑构架多么复杂,都必须能够用人类语言进行解释。(5)数据来源及可靠性,算法设计者应该对训练数据的来源及可靠性加以说明。(6)可审查性,算法设计机构应记录模型、算法、数据和具体决策,以便在解决出现的问题或依法监管时有据可查。(7)验证和测试,算法应用机构应采取可靠的技术手段对其算法的程序进行验证,以提高基于此算法所自动做出的决策的可信度。由于包括技术、经济和社会等在内的很多因素,算法所作出的决策可能是不透明的或具有某种导向,算法偏见或歧视可能对公众产生危害,上述原则的确立是通过算法透明化及可追溯性,尽量减少潜在的风险及危害。

美国对公共政策算法立法规制及核心内容。2017年12月1日,纽约市议会通过了《政府部门自动决策系统法案》(以下简称《法案》),这是美国针对人工智能算法进行立法监管的首个法案,其目的在于促进政府自动决策算法的公开、公平,提高政府决策智能算法的公信力。其核心内容包括三個方面:一是厘清自动决策系统概念;二是制定对公共政策自动决策系统算法审查的规则;三是建立政府决策算法开源和公众问责机制。《法案》规定,由市长或指定人士召集成立专门工作机构,组成人员主要包括自动决策系统技术专家、代表受政策影响公众的公益组织人士,其职责是制定相关规则,对公共政策自动决策及其算法的公平性进行审查。

其他国家关于算法的相关规制。其他国家普遍的做法是在人工智能细分领域相关的法规或伦理道德规范中对算法制定相关规则,会专门制定算法的法律法规。2017年2月,欧盟议会通过《机器人民事法律规则》,其中有关于算法的伦理道德规定:强调透明原则,即对某个人或更多人的生活可能产生实质性的影响,借助于人工智能所做出的决策,必须在任何情况下都可以提供其决策背后的算法设计规则。2017年6月,德国提出全球首个自动驾驶汽车伦理原则《自动和联网驾驶》,其中针对算法有三个原则:当危险情况不可避免时,保护人类生命优先于其他权益方,为了避免造成人员伤亡,允许在决策算法中事先设定让动物或财产遭受损害;道德困境下的决策依赖于现实中的具体情况,不可能事先将其进行标准化编程;在事故无法避免时,严格禁止基于人的特征(年龄、性别、生理或者心理状况等)做出歧视性的算法决策,同时不得牺牲不相关方。

对策与建议

一是制定算法法律法规,抢占人工智能战略制高点。算法是人工智能的核心,决定人工智能的决策程序、价值取向和发展方向,我国应尽快对算法进行立法,加强人工智能顶层设计,抢占人工智能发展先机与战略制高点。首先,加快推动算法伦理道德规范出台,厘清算法伦理道德规范和算法法律的界限。其次,在此基础上,以算法为规制对象制定法律法规,约束和规范算法设计及决策等行为。立法的主要方面应该包括但不限于:一是厘清算法的概念及应用范畴;二是制定对算法的审查规则;三是把部分伦理规范融入法律规则,强化对算法设计者遵循社会伦理道德的法律约束力。

二是设立专门机构,构建全过程监管机制。建议有关部门成立算法审查专门机构,组成人员可包括职能部门人员、计算技术专家、产业界人士、法律专家、社会团体或公益机构人员等不同利益方。专门机构应该进行全过程的监管,包括:事前,算法设计者向专门机构提供算法相关技术及决策依据的说明,并进行备案;事中,专门机构加大对算法与决策的随机抽查力度,从技术上对算法进行审查检验,对错误决策进行纠正;事后,通过构建算法问责追溯机制,为公众建立算法决策的申诉渠道,接受公众对算法的质疑,要求算法设计者针对算法进行必要解释和说明。

三是开展相关研究,夯实算法应用基础。一是加强对算法在人工智能领域的技术开发和应用,开展预测、研判和研究,准确把握技术和产业发展的趋势;二是加大资金扶持,研究和评估算法决策应用对社会秩序、价值导向、社会伦理等方面的影响,开展防止算法歧视的研究,强化前瞻性预防和引导;三是加紧对算法设计人员和算法提供者在法律以及道德伦理方面的教育,提高公众对算法技术和相关知识的认识和了解程度。

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!