当前位置:首页 期刊杂志

智能传播中算法偏见的溯源逻辑

时间:2024-08-31

胡万鹏 孟佳林

摘要:在智能传播中,算法偏见所产生的影响已逐渐延伸到社会生活的多个领域,而其溯源问题在问题导向和技术的逆向检视逻辑之下却难以深入。本文在建构算法新闻主体的基础上,试图以算法技术、人类和社会力量三个要素为逻辑起点,探寻算法偏见产生的根源。

关键词:算法偏见;技术伦理;智能传播

近些年,算法技术在新闻生产和分发环节的应用不断走向深入,算法新闻对传统新闻传播活动的颠覆正在重构着人们的交往方式,其本身所携带的技术逻辑也逐渐嵌入到更广泛的社会生活中。算法本身依托大数据和计算机程序,确实在一定程度上规避了人类主观的新闻价值判断,受众的信息接收环节也从“应知”过渡到了“欲知”。然而,依靠“技术中立”编织的智能技术神话,并不能消弭人们对大数据以及计算机程序客观性的质疑,算法技术存在的偏见正在损害着新闻的客观性和公民的基本权利。针对算法偏见的溯源不仅是我们探寻治理路径的前提,更是对人与技术关系的反思。

一、建构算法新闻主体:一种结构化的溯源逻辑

不同的社会群体对于还在形成变化中的技术存在较大分歧,关于算法技术的诠释以及算法偏见的原因,要经过不同社会群体的讨论和协商,才能最终被固定下來。目前来看,算法偏见的溯源一般存在两种逻辑:

(1)基于问题导向的溯源逻辑。

即以确认存在的算法偏见现象为逻辑起点,进而通过分析其具体表现来诠释算法偏见产生的原因。美国学者巴蒂娅·弗里德曼和海伦·尼森鲍姆将算法偏见的表现概括为“先存偏见”、“技术偏见”和“突发偏见”,以此来挖掘算法偏见背后的社会制度和技术限制等原因。这种溯源方式能够将技术置于社会文化维度进行考量,并对算法偏见的起因有较全面的把握。但面对纷繁复杂的社会文化现象和被大量掩盖的算法偏见,人们极容易浮于繁复的表象而不能深入探寻算法偏见的根源。国内学者刘友华则从被算法偏见所侵害的主体视角出发来归纳其具体表现:损害公民基本权利、损害市场竞争性和损害个体民事权益的算法偏见。这种溯源的方式已经有了建构算法新闻主体的意识,试图通过被算法偏见侵害的几个主体来挖掘算法偏见产生的根源,但从根本上来说仍然没有突破以问题为导向的溯源逻辑。

(2)基于技术逻辑的逆向检验。

即通过反向工程方法检视算法技术应用的各个环节,从而确认算法技术所面临的风险和导致算法偏见的因素。这种溯源方式能够明确算法技术应用过程各环节存在的问题,并证明其与算法偏见产生的直接关联,因此可以加快推进算法问责制度的推行。但由于向算法平台取证的难度很大,算法技术本身又具备很强的自主学习能力,因而算法黑箱很难被完全打开。从研究维度来看,这种溯源逻辑过于强调从微观视角考察算法技术本身,将算法偏见问题局限于中观媒介场域,没能与更宏观的社会文化场域联系起来。

鉴于以上两种算法偏见的溯源逻辑存在的缺陷,我们有必要以结构化的溯源逻辑来建构算法新闻主体,探寻制约算法新闻实践的要素,全面观照算法技术的应用及其与社会的交互活动。杨保军认为,算法新闻中主要关涉三类主体,即算法创设主体、算法运用主体和算法收受主体,他们共同结构在一个新闻生态体系内。此种算法新闻主体建构方式强调了人类的主体性,主要将建构的视角聚焦于人类本身以及人与技术的关系,但并没有明确算法新闻存在的社会场域。算法技术与新闻界结合的过程是在依托整体社会生活的基础上,人类利用算法技术来获得感官和智力的延伸,并以人作为最终目的的过程。因此,制约算法新闻发展实践的主要因素不仅包含人和技术这两大主体,社会力量对于媒介场域的基础性影响也不容忽视。

我们从这三个制约算法新闻实践的主要因素展开算法偏见的溯源,可以在一定程度上从千头万绪的问题导向逻辑中解脱出来,摆脱技术逻辑的限制,从而探寻算法偏见产生的根源,在根本上规避算法偏见的产生并将其限制于工具本位。

二、解构技术神话:算法技术的局限

算力有限性导致传播偏见主要表现在以下两个方面:

(一)算法技术对现实世界的还原

在算法技术还原现实世界的过程中,针对特定情境的量化虽有难度,但也能够较为准确地实现。然而,整个现实世界的复杂性和人类自身的不确定性难以被大数据所表征,抽象化和定理化的数学模型和算法程序会将原本多元的世界简化。在简化的过程中必定会有诸多经验世界的事实被筛去,这种算法技术的有限性造成的“视觉盲区”,会促使人们对世界的认知趋于窄化,对现实世界的呈现也将趋于扁平。因此,偏见必然会在受众中滋生,真相为偏狭的想象所取代。譬如,由于“视觉盲区”的存在,我们在接触媒介信息时,更多地关注发达国家和社会主要群体,而对发展中国家和社会多元文化却视而不见。

(二)算法技术对人类多元变化状态的模拟

算法利用受众的个人信息、群体归属和在互联网的交互数据,描绘出了一个能够确认用户属性、用户特征和用户标签的“用户画像”。算法会根据用户画像模拟个体受众的认知维度,来营造个人专属信息环境。

然而,由于用户数量过于庞大,算法系统很难完整收集个体用户的基础数据,受众的互联网交互行为又具有很强的随意性和偶发性,用户画像通常会被描绘得过于简化、模糊甚至失真,算法对受众认知维度的判断也趋于着武断甚至是错位。算法会依照受众被简化的人格,将其置身于一个信息窄化且逐渐丧失流动性的信息回声室中。这种逐渐封闭的信息环境让受众免受多元信息的干扰,轻松获得偏狭的自我认同和对局部环境的适应。受众被塑造成为算法“用户画像”所规定的形象,他们对于现实社会的态度、价值观等逐渐偏离客观现实,同时也丧失了诸多修正的机会。

三、失败的自我否定:人类主体性主导算法

(一)算法偏见产生于新闻供给侧

(1)在算法新闻的供给侧,人类作为“主脑”负责做出决策,而算法技术则充当“中间人”的角色。虽然算法技术在一定程度上代替了人类的信息生产和分发活动,但并没有摆脱人类固有偏见或主动或被动的干预。甚至,由于算法技术这个“中间人”的掩护,人类干预新闻生产和分发的负罪感和追责风险被大大降低,从而起到了推波助澜的效果。

(二)算法程序在人机传播中滋生偏见

随着人工智能技术的发展,人与机器之间的差距逐渐缩小。频繁的人机交互活动,让算法技术和算法机器逐渐摆脱以往单纯的“中间人”角色,成为能够与人类交流的另一个传播主体。算法机器人能够实时处理与人类的交互信息,并可以通过自主学习以完成智能应对和决策,是具有模拟人格的虚拟人。但是,由于智能机器人在与人类的交互活动中,缺少能够排斥人类偏见的价值观判别系统,通常作为算法收受主体的普通受众会将他们固有的偏见传递给智能机器人。

四、隐蔽的操纵:社会力量与算法技术的共谋

阿里尔·扎拉奇和莫里斯·E·斯图克将社会政治或经济力量为实现特有目的而对算法技术实施的操纵称之为社会力量与算法技术的“共谋”。在算法新闻的生产和传播活动中,代表性的共谋场景主要有两种:其一是“信使场景”,即算法技术作为人类意志延伸的工具,通过执行人类设定的计划进行共谋,在这一场景社会力量对算法的操纵较为直接;其二被称为“代理人场景”,即无数参与者的信息传播活动,都将围绕同一个算法规则展开,其中主要的市场竞争者隐去自己合纵连横的身影,利用算法充当代理人以实现自身的特定目的,由此产生的算法偏见将更加且隐蔽难以被追责。

(一)政治力量的嵌入

阿明·格伦瓦尔德认为:“人们常常以强调技术对民主的某些威胁的方式,来研究民主和技术之间的关系。这些研究者认为,技术给民主造成了很多麻烦,而非反之。”对于算法技术的应用而言,已逐渐由这种技术决定论的论调转向对算法使用主体的关注,尤其是对社会有决定性影响的政治力量。在两种共谋场景下,政治力量已经嵌入算法,并使其在应用过程中背离了设计初衷。

(二)资本力量的操纵

算法技术的创造与发展是以功能作用和可行性为首要宗旨的,但是任何技术都不可能归属于某一单一的社会子系统,技术是一个跨领域现象,社会资本力量的干涉必然会使算法技术背离其创造的初衷。基于商业利益集团以盈利为主要目标的商业逻辑,资本对算法的操纵将作用于用户的认知层面和行为层面。人民日报曾批评“马保国现象”背后的助推者:“而对那些热衷流量、推波助澜的互联网平台,如果还有起码的社会责任,就应该马上停止再为这种‘丑行’‘闹剧’提供传播渠道。”

参考文献:

[1]师文,陈昌凤.驯化、人机传播与算法善用:2019年智能媒体研究[J].新闻界,2020(1).

[2]阿明·格伦瓦尔德.技术伦理学手册[M].易文波,译.北京:社会科学文献出版社,2017:223.

[3]许向东,王溪怡.智能传播中算法偏见的成因、影响与对策[J].国际新闻界,2020(10).

课题来源:2021 年度河北省人力资源和社会保障研究课题《智能媒介时代的数字劳动研究》 课题編号JRS-2021-4006

作者简介:

胡万鹏,出生年月:1992-10-28,男,汉族,籍贯:河北衡水,所在院校:河北环境工程学院,职称:讲师   学位:新闻与传播硕士,研究方向:新闻传播理论与新媒体。

孟佳林,出生年月:1986-9-24,女,汉族,籍贯:吉林抚松,所在院校:河北环境工程学院,职称:讲师   学位:传播学硕士,研究方向:会展经济与管理。

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!