当前位置:首页 期刊杂志

算法推荐时代主流意识形态传播面临的挑战及其应对

时间:2024-05-09

武豹

摘要:作为信息传播领域中一种个性化的信息资源配置范式,算法推荐重塑了传统话语传播格局,给主流意识形态传播带来诸多挑战。算法推荐中存在的“信息茧房”效应、把关缺位漏洞、技术狂欢图景和资本裹挟逻辑不断销蚀主流意识形态的整合力、渗透力、感染力、引领力。新时代要摆脱算法推荐的负面影响,必须持续优化算法、驾驭算法、用好算法、管好算法,实现技术逻辑和价值逻辑的高度融合。

关键词:算法推荐;主流意识形态传播;技术逻辑;价值逻辑

中图分类号:G206;D64;TP39

文献标识码:A

文章编号:1673-5595(2021)04-0098-07

大数据时代,互联网用户陷入信息汪洋之中。为了有效应对信息超载危机,提升传播效率,以微信、新浪、今日头条等为代表的各类社交平台、门户网站以及资讯聚合平台纷纷引入算法分发模式,致力于实现信息供给与用户需求之间的精准匹配。算法推荐最初被用来提升计算机软件的运算效率。随着移动互联网的快速发展,算法推荐先后被引至商业领域和信息传播领域,运算的重点对象也由“物”转向了“人”。算法推荐的广泛应用,引起了社会信息结构和传播秩序的深刻调整,改变了传统的信息传播业态,也形成了新的话语传播格局。在当前充满风险挑战的意识形态领域,主流意识形态在网络信息传播格局中的地位不仅事关网络生态的清朗,而且事关新时代国家意识形态的安全。鉴于此,分析算法推荐给主流意识形态传播带来的场域性变化,提出主流意识形态传播应对算法推荐风险挑战的整体策略,无疑具有重要的理论意义和现实价值。

一、算法推荐的技术逻辑及其价值负载性

算法推荐是技术发展的必然逻辑。互联网时代,信息的爆炸式增长态势制约了大众寻找有效信息的能力,面对海量数据,人们陷入了前所未有的信息困境。作为信息传播领域的前沿技术工具,算法推荐凭借其精准预测、精准推送和精准反馈的特质使得信息得以高效、迅捷地抵达,从而有效满足了用户“一对一”的个性化服务需求。这不仅极大缓解了用户的选择焦虑,节约了用户的时间成本,同时也使得平台的用户黏性和数量显著增加。不过,技术勃兴带来的价值往往是双向的,它在推動人类社会生产方式和生活方式急遽变革的同时,也带来了意识形态领域的隐忧。

(一)算法推荐的技术逻辑

“算法”是指“为解决特定问题而输入机器的一系列步骤”

[1]。算法推荐的技术实质是在对用户的个体属性数据、社交数据和消费行为数据等进行分析计算的基础上,对用户进行“画像”,进而推送“懂你”的信息。由于网络上的信息十分庞杂和冗余,对信息内容和用户需求进行分类就显得尤为重要。算法推荐就是要把这两者化成可计算的数字,然后通过对这些数字化的特征进行归类并根据特征数字进行分发,进而实现信息与用户间的个性化对接。一般而言,一个完整的算法推荐系统由三个模块构成:记录模块(收集用户信息数据系统)、分析模块(勾勒用户偏好系统)、分发模块(过滤、筛选和推送信息系统)。在这三个模块中,分发模块处于核心地位,对整个算法推荐运行效果起决定作用。

在当前的传播实践中,主流的算法推荐机制主要有三种:基于内容的推荐机制、基于协同过滤的推荐机制、基于热点的推荐机制。基于内容的推荐机制是指系统根据用户以往的收藏、关注和浏览历史,自动测算出用户的喜好,进而持续推荐相似的项目。比如,当用户在资讯平台浏览“全球疫情”后,平台就会源源不断地向用户推荐与国际疫情有关的信息。基于协同过滤的推荐机制是指系统在全景扫描用户社交圈层的基础上,基于关联规则划分“相似矩阵”,通过假设“与你喜好相似的‘邻居喜欢的东西你也可能喜欢”,向用户进行信息推荐。基于热点的推荐机制则较为简单明了,就是根据信息的热度和流行度(其重要指标是点击率、关注度、转发数等)进行信息的排序式推荐,微博“热搜”、头条新闻等是这类推荐机制的典型代表。

(二)算法推荐的价值负载性

算法推荐并非仅是一套技术编码或运算程序,它还是包含“算法、团队及其新闻价值观在内的一整套系统架构”[2]。换言之,从来不存在所谓“价值中立”甚至“无价值观”的算法推荐,“每一种技术架构、每一行代码、每一个界面,都代表着选择,都意味着判断,都承载着价值”[3]。这也暗示出,算法推荐在配置个性化信息的同时也在行使权力。当然,这是一种温和而隐蔽的软性权力。

第一,技术的“内嵌式规则”决定了算法推荐不可避免地体现出人的意志,彰显出鲜明的价值负载性。不管是有意还是无意,设计主体从一开始就或多或少地将自己的某种价值倾向嵌入算法推荐的技术中去。比如,对所需数据的选取、对变量的选择、对权重的设定等等,都是设计主体在执行推荐任务时所要考量的,而这些会受到个人价值观的影响,并最终决定信息的意义、流向以及受众对信息感知的方式。比如,如果某些商业平台为了达到流量最大化的目的,那么,它就会肆无忌惮地将算法推荐导向利润的价值维度,甚至不惜制造出各种“脏数据”,污染媒介生态场,这其中的价值倾向表现得尤为明显。值得一提的是,算法本身还会沿袭人的某种价值倾向,并在算法技术的更新迭代中持续深化和放大这种倾向。

第二,算法推荐通过信息资源调适又必然会带来一定的意识形态后果。很多时候,用户接收到的信息内容并不是他们想看到的,而是算法“想”推荐的。这背后关涉的通常是商业逻辑、权力逻辑或者两者的共谋,它会在潜移默化中影响个体的价值观念乃至整个社会的话语权力结构,并最终打破传统意识形态建设的一体化信息环境。正如美国未来学家约翰·奈斯比特所言:“一个新的权力来源正在出现,它不再是少数人手里的金钱,而是多数人手中的信息。”[4]质言之,谁拥有了社会信息的分配权,谁就拥有了意识形态传播的话语权,这就是算法推荐的权力本质与价值负载属性。

二、算法推荐对主流意识形态传播的挑战

“现代社会中的意识形态分析,必须把大众传播的性质与影响放在核心位置,虽然大众传播不是意识形态运作的惟一场所。”[5]这表明,一种意识形态要想占据传播高地,成为全社会的高势位价值理念,就必须实现其在日常传播空间中的到达与覆盖。然而,算法推荐对主流意识形态传播带来了一系列挑战:算法推荐中存在的“信息茧房”效应使受众视野愈发窄化,加剧了价值偏见和群体极化,削弱了主流意识形态传播的整合力;把关缺位的漏洞导致主流价值观念供给匮乏,消解了主流意识形态传播的渗透力;技术狂欢的图景表明受众沉溺于“泛娱乐化”的致瘾机制,主导价值观念被解构,弱化了主流意识形态传播的感染力;资本裹挟的逻辑引导人们从追求“有意义”的信息转向追求“有意思”的信息,冲击了主流意识形态传播的引领力。

(一)“信息茧房”效应削弱了主流意识形态传播的整合力

美国学者凯斯·桑斯坦在《网络共和国》中提出了“信息茧房”的概念。后来,在其另一本著作《信息乌托邦:众人如何生产知识》中,他对这一概念作了进一步阐释。他认为,信息传播中,因公众自身的信息需求并非全方位的,“我们只听我们选择的东西和愉悦我们的东西的通讯领域”[6],久而久之,会将自身桎梏于像蚕茧一样的“茧房”之中。算法推荐就是基于用户喜好来推荐信息的,由于用户倾向于选择自己偏爱的、令自己愉悦的同质性信息,长此以往,他就会失去接触异质性信息的机会和能力,视野走向窄化,思维走向固化,只愿意停留在固有的“舒适地带”,最终沦为“信息孤岛”的“原住民”。

在兴趣“气泡”的长期环绕下,受众将日渐失去应有的理智判断能力,只愿意将自己认知能力层面的信息看作是真理,而拒斥其他一切合理的观念,最终导致价值偏见的形成。比如,微信用户习惯从“公众号”“看一看”和“视频号”中接收信息,微博用户则习惯从“我的关注”中接收信息。因此,人们经常可以看到这样的文化景观:“追星人”乐此不疲地转发关于偶像的宣传报道,文艺青年热衷于在微博上晒“诗和远方”,老年人则固执地在朋友圈里转发各种“养生秘籍”;而对于圈层以外的世界,他们是陌生且无感的。此外,还有研究表明,当两个人在不同的搜索引擎检索相同内容时,所得到的信息反馈竟然有可能完全不同。这说明,算法预先屏蔽了其所认定的用户“不需要”的信息,那么用户就会在算法的“取悦”下不断加深对某些问题的既有看法。这些价值偏见无疑会动摇社会主导价值的根基,撕裂价值共识,进而影响主流意识形态的整合效果。同时,由于“信息茧房”里的受众很少与外界交换信息,而主要是受自己社群内受众的影响,这样,就会在不同“类”的受众之间自动构筑起一道观念的“隔离墙”。这道“隔离墙”无疑会阻碍社会交往,降低社会黏性,造成群体极化。群体极化理论由美国传媒学者詹姆斯·斯托纳在1961年提出。他认为,当一个人身处于某个群体时,他所作出的决策更容易受到這个群体的影响,进而作出比原先更为过激的决定。因此,当有公共热点事件发生时,不同“茧房群”之间往往会形成思想上的对峙,带来一定的社会影响。

总之,无论是价值偏见还是群体极化,都会在无形中加大主流意识形态统合个人或群体的不同思想观念的难度。

(二)把关缺位漏洞消解了主流意识形态传播的渗透力

“把关人”理论认为,由于流通中的信息从来都离不开特定立场、价值或者利益诉求的驱使,因此,对信息的把关就不单是一个简单地让其“进”与“出”的问题,把关人还内在地承担着捍卫法律尊严、守护公序良俗和建构公共价值的责任。在传统媒体时代,向用户推送什么样的信息、如何反馈用户的信息需求等,都有专业的编辑把关。他们坚持正确的舆论导向,认真甄别信息真伪,合理设置讨论议题,在捍卫媒体尤其是主流媒体的权威性和公信力方面发挥着“压舱石”作用。美国社会学家库尔特·卢因认为,“把关人”在信息的社会传播过程中至关重要,他们的决策直接影响着信息的传播走向和价值规范。但是,由于算法推荐将人束缚在“信息茧房”里,用户接收到的内容往往不是“应该看”的主流信息,而是用户感兴趣的非主流信息。为了迎合受众审美趣味,内容生产者会将信息的把关权让渡给冰冷的机器,以此增加信息推送的精确度和信息更迭的效度。尽管这可以有效规避传统人工编辑的主观倾向和情感介入,给受众带来新的视听体验,但是,它却导致主流价值观念的供给匮乏,造成主流意识形态传播的“空场”。

第一,算法遵循的是工具理性,为了最大限度地博人眼球、获取流量,一些商业平台甚至会主动向受众推送各类负面信息,传输一系列错误的价值观。而诸如大国外交、国家安全、民族信仰、复兴使命等语言风格严肃、叙事背景宏大的主流话语由于不具备可观的流量变现能力,因而可能会被商业平台主动屏蔽,这就导致主流意识形态的推荐度不足、覆盖率较低。

第二,心理学研究表明,人类的趣味并不总是高尚的。正如恩格斯所说:“人来源于动物界这一事实已经决定人永远不能完全摆脱兽性,所以问题永远只能在于摆脱得多些或少些,在于兽性或人性的程度上的差异。”[7]因而,在极具私密性的移动终端,许多人往往更热衷于追求低俗的信息内容,忽视甚至刻意遮蔽主流话语,这同样导致正能量的宣传报道无法传播到广大受众尤其是青少年群体中。而作为“把关者”的算法推荐不会自觉矫正信息传播中的价值偏差,相反,它在负面信息传播过程中反而会起到推波助澜的作用。这种“劣币驱逐良币”的现象无疑会拉大大众与真相之间的距离,致使主流价值不断被边缘化。

总之,算法取代编辑,造成新闻专业主义的缺失,这消解了主流意识形态传播的渗透力。

(三)技术狂欢图景弱化了主流意识形态传播的感染力

人工智能的跃迁式发展,使以前高不可测的科学技术越来越成为寻常的“可用物”,千千万万的普通人正以前所未有的热情投入其中。而这种变化无疑赋予了参与者一种权力感,“他们通过参与、合作,重新制定了标准和规范,让人感到即使摆脱主宰20世纪的旧权力这一‘中介,自己也能获得成功”[8]。毫不夸张地说,一场属于全民的技术狂欢图景正在如火如荼地上演。

但是,如前所述,技术不是中立的。对受众来说,它的确能够满足个人生活、娱乐等方方面面的需求,但是,这种满足背后实则隐藏着一种“温和的暴力”。平台通过算法将受众引入“技术囚笼”,受众非但感觉不到丧失权利的痛楚,反而会享受到轻松获得感兴趣的信息的快感。

第一,在“信息找人”的算法时代,各类平台不仅坐拥海量资讯,而且能够主导信息的分发。它们高居一端,成为奇货可居的“霸主”。在这种情况下,受众看似能够自主决策、主动选择,但实际上却被算法权力牢牢操纵着。在算法的不断引诱下,个体就有可能在美好的生活幻想中丧失反思意识和抵抗能力,变得愈发冷漠和利己。长此以往,他们将不再关心社会公共事务,日渐疏离社会主流,重返“原子化”状态。比如,在青少年群体中有许多沉迷于游戏世界、动漫世界或者影视世界的“宅男”“宅女”,他们很少主动与他人交流,拒绝融入现实生活,社会的主流思想往往很难进入他们的头脑中。

第二,个性化的推荐方式又使得用户乐此不疲地沉浸于数字世界,从而使他们在不知不觉中加剧了对技术的依赖。比如,抖音APP通过一个时长为15秒的短视频就能轻松俘获观众,它正是利用了人们视听时的“期望心理”:不仅在意这一秒看到的是什么,更期待下一秒能够看到什么。这常常导致用户成为温水里的青蛙,虚掷大把光阴而不自知。这种“泛娱乐化”的致瘾机制不仅使受众陷入感官疲劳,而且也解构了主流价值观念。“娱乐至死”的心理使得社会变得喧嚣而浮躁,世俗社会在某种程度上侵占了理性社会,从而,人们对规范化、抽象化、理论化的主流意识形态符号和话语开始报以冷漠、怀疑和抗拒态度,浅表化的算法文化不断稀释主流意识形态传播的价值,致使后者权威旁落。

总之,个人与权威、肆意与严肃、感性与理性的鸿沟难以在短时期内被消弭,这种趋势不断弱化主流意识形态传播的感染力。

(四)资本裹挟逻辑冲击了主流意识形态传播的引领力

马克思说:“人们为之奋斗的一切,都同他们的利益有关。”[9]这一观点在“流量为王”的互联网时代表现得尤为突出。资本的本质在于增殖。在网络空间,“粉丝”和“流量”就是资本最为青睐和无限追求的两大板块。在网络空间,资本增殖的逻辑是:通过无底线地迎合用户需求来增强粉丝黏性,扩大粉丝数量;通过粉丝的持续关注与消费赚得流量,进而转化成实实在在的收益。本来,资本逐利无可厚非,但是,如果忽视价值理性而只考虑工具理性的话,其危害就非同寻常了。实际上,算法在资本裹挟的逻辑下已经将这种倾向表现得十分露骨。

第一,在中国的现代化进程中,“资本崇拜”已经成为一种不可忽视的社会现象。在消费主义浪潮的席卷下,广大民众特别是青年人,为了满足自身心理方面的某种愿望,持续产生着这样或那样的需求。网络商业平台紧紧抓住人们的这种心理,通过精确的推荐系统向用户持续不断地推送种类繁多的精美商品,致使人们欲壑难平,越陷越深。消费主义会在潜移默化中加深人们的攀比心理、虚荣心理,甚至使青年人迷恋上“精致穷”的生活,由此造成社会风气变质,给道德建设和主流价值引导带来极大阻碍。

第二,在资本的助推下,算法设计主体坚持“流量至上”原则,将“用户关注的才是头条”奉为圭臬,而对信息品质和信息的公共性价值全然不顾,只要是用户喜欢的,都会被优先推荐给用户。同时,算法设计主体还主动将自己希望达到的某种预期通过置顶的方式展示给用户,试图借此赢得信息报道的主动权。某些时候,这些被置顶的信息甚至还隐喻了平台的特定价值立场,反映出其引导舆论走向的目的。

第三,算法的“冲锋陷阵”也为资本带来了丰厚的回报,两者相互成全,不断在信息市场开疆拓土。而当网络环境不利于市场化媒体平台的发展时,资本力量就会通过购买“水军”、引流推广、删帖等方式围剿不利于其商业发展的言论。这样,网络舆论场上那些庸俗的肤浅文化就会大行其道。在这种环境下,人们自觉或不自觉地从追求“有意义”的信息转向追求“有意思”的信息。主流意识形态的空间则被不断挤压,主流声音越来越难以传得开、传得广、传得深,其净化网络生态、引领舆论走向的社会功效就会大打折扣。

总之,资本裹挟的逻辑不断冲击着主流意识形态传播的引领力。

三、主流意識形态传播应对算法推荐风险挑战的策略

“我们看待技术的态度是在技术洪流中掌握主动权的关键因素。”[10]从科学技术发展史的视角来看,以算法推荐为代表的人工智能充分体现了人类进一步揭示自然界和人类社会的奥秘,特别是创造新的生产文明的努力,这种努力是科学技术发展的一贯传统。而从哲学认识论的视角来看,这种新技术又在一定程度上延续了反人文主义的传统,因为它忽视人的尊严与价值,试图征服人类本身。2017年9月,人民网三评算法推荐,明确提出了重视和反思技术伦理的紧迫命题。2020年6月,国家新一代人工智能治理专业委员会进一步突出“发展负责任的人工智能”治理主题,为应对算法推荐带来的风险挑战指明了原则和进路。因此,我们在享受人工智能带来的便捷时,要充分意识到其中隐含的信息权力变局和意识形态危局,并采取积极有效的策略加以应对,以有效维护主流意识形态传播的空间场域。

(一)优化算法:用主流价值导向引领算法

在信息高速公路上,如果不给算法推荐装上“方向盘”,它就会偏离正途、迷失方向。为了达到“吸金”“吸粉”的目的,算法向受众疯狂推送各类无价值的甚至是有害的信息,其主要根源就在于缺少主流价值的引导和规制。因此,用主流价值导向引领算法是应对算法推荐风险挑战的首要策略。

第一,要将主流价值内嵌于算法推荐的全过程,赋予其价值正当性,以夯实算法的价值根基。在算法设计环节,要将社会主义核心价值观念贯穿于数据选取、挖掘、清洗和析出的全过程,确保信息始终呈现正向有益的价值取向。在算法“喂食”环节,要着力向用户提供高质量、优品质、有价值的信息,坚决杜绝低俗、虚假、暴力等污染网络环境和人的精神世界的负面信息的推送。在算法把关环节,要教育引导把关人员坚守媒介伦理,持续收编非主流的异质性话语,加大对不良信息和错误思潮的监测与处理力度。在算法评价环节,要适当鼓励围绕中国主流意识形态、中国精神、中国故事和中华优秀传统文化等进行创作的优质内容生产者,持续培养导向正确的“意见领袖”,创设主流意识形态内容生产与传播的良性竞争环境。

第二,要不断增加主流信息在“推荐池”里的比重,赋予主流意识形态更高的传播权重。“推荐池”是算法信息传播生态系统的源头,无论何种算法推荐,都要从海量的“推荐池”中甄选和推送信息。当前的算法推荐主要以用户的个人信息、浏览偏好和社交图谱等为指标进行信息推送,这就导致用户接收到的往往都是重复的、无价值的信息,造成了“信息窄化”困境。为此,必须向“推荐池”中注入丰富多元的、关注个体发展和社会良善的主流信息。在这一方面,以新华社、《人民日报》、央视网等为代表的主流媒体是天然的优质信源,它们自然承担着设置议题、引导舆论、引领思想和整合价值的社会责任。主流媒体要因时而变、乘势而新,以推动社会主义核心价值观的形象化、生活化、大众化转向为着力点,创作和生产更多反映民生诉求、展现时代新面貌、弘扬社会主旋律的优质内容,并将其源源不断地注入“推荐池”中,以保证主流信息在“推荐池”中占据绝对比重,预先为后续的算法推荐擦亮主流成色。同时,各类商业平台还要积极邀请党政机关媒体入驻,优先推荐权威媒体发布的主流信息,赋予主流信息更宽松的叠加推荐规则和更高的传播权重,让主流价值成为全网信息生产与传播的价值准则,从而实现“价值引领下的技术驱动”[11]。

(二)驾驭算法:努力实现工具理性与价值理性的双向平衡

德国社会学家韦伯将理性划分成了工具理性和价值理性两个层次。前者追求结果效用,主张道德无涉,强调的是知识的力量和科学的权威;后者则竭力反抗束缚人的种种外在力量,追求个体的自由与个性。作为一种工具理性,算法推荐俨然将技术的效力发挥到了极致,成为现代社会中不可或缺的强大力量。但与此同时,对工具理性的一味崇拜也使得科学在某种程度上异化成为现代化过程中不可回避的社会问题。为了使这两者之间达到双向平衡,有必要在重新审视算法本身的同时关注人的参与。

第一,要打开算法的“黑箱”,提高算法透明度。在控制论中,通常把那些既无法打开又不能直观观察到的系统或区域称为“黑箱”。由于技术复杂性和商業排他性等原因,算法推荐往往呈现出不透明性、隐蔽性的特征。这使得普通受众无从知晓哪些信息被过滤掉了,正如美国学者帕斯奎尔所言:“有些会对我们产生重要影响的信息却只有局内人才能获得。”[12]信息的不对称剥夺了用户的选择权,算法歧视、算法宰制等问题层出不穷,因此,要打开算法的“黑箱”,提高算法设计透明度。比如,平台要主动向用户公布数据“画像”的要素和信息收集的范围,让用户了解算法程序和算法运用的基本原理,确保用户对自身的数据隐私有充分的知情权和决策权,从而使得“过滤气泡”生产的过程透明化,以帮助用户根据算法规则调整自身行为,全力规避“负效应”带来的不良影响。

第二,履行好“把关人”的责任。算法毕竟没有意识,不能对其所推荐的内容作道义上的思考。

“而意识形态治理本质上是对人的治理,是对人的社会行为的评判、引导和规范化。”[13]因此,决不能让缺乏人文意识的算法取代人工编辑。

首先,把关人要坚定党性立场,提高信息敏感度和分析鉴别能力,坚决守好意识形态“责任田”。

同时,也应当始终尊重人的主体地位,注重人文关怀,而不是把一个个鲜活的个体仅仅看作“符号”。

其次,抓好“正向传输”与“负向屏蔽”两个方面的工作。一方面通过主动组织和编排重大事件,以弹窗、置顶等方式将主流热点传递给公众,以更好地满足受众对主流信息的需求。另一方面要强化前置把关,摒弃先分发、后删除的事后把关模式,通过人为干预降低负面信息的热度,及时纠正算法推荐过程中的价值偏向。再次,通过人机协同的信息分发模式更好地净化算法推荐的内容生态。既要充分利用智能算法的科技优势,也要发挥人工编辑的纠偏功能,从而引导信息回归价值本位,达到分发效率与价值导向的动态平衡。

(三)用好算法:为主流意识形态插上算法推荐的“翅膀”

“技术承载着价值,决定了它可以也应该成为主流价值的载体。”[3]纵观整个科学技术史可以发现,在某种程度上,技术带来的许多问题完全可以通过技术本身来加以解决。因此,我们要为主流意识形态插上算法推荐的“翅膀”,让算法“为我所用”。

第一,传统主流媒体要积极适应全媒体时代的信息传播大变局,主动拥抱算法技术,通过与技术占优的互联网头部企业开展深度合作,推动主流媒体传播升级。首先,主流媒体要引入商业平台的算法技术,根据传播内容属性和用户需求,努力摆脱信息更新滞后、版面栏目固化等困境,持续改进运营模式,优化用户体验,将生产的优质内容同算法推荐优势整合起来,不断拓展主流意识形态传播的辐射圈层,提升主流媒体的被关注度和用户黏性。比如,2017年12月,新华社正式发布了中国第一个媒体人工智能平台“媒体大脑”,凭借其AI技术赋能、全新闻链路等优势吸引了众多关注,这表明传统主流媒体在探索智慧媒体方面迈出了坚实一步。其次,主流媒体要将主流意识形态输入商业平台的“推荐池”,提升主流价值观传播的精准度和覆盖面。比如,微博、今日头条、一点资讯等移动资讯终端,均已开辟了“新时代”“党史学习教育”等传播主流意识形态的板块。

第二,主流媒体可以构建自己的“党媒算法”平台。比如,《人民日报》首创的“党媒算法”——“人民号”就是一个有益尝试。同“头条号”“企鹅号”等商业型资讯平台略有差异,“人民号”不仅有效融入了算法推荐的智能优势,还着重强调主流价值的导向功能。它吸引了数千家优质自媒体、政务号和党报党刊纷纷入驻,是内容和导向相结合的典范。

第三,改进算法推荐技术,反向利用算法。首先,可以通过算法推荐技术设计“猜你不感兴趣”“猜你可能忽略”等信息推送策略,以此减少“信息茧房”对用户的负面影响,将用户从狭隘的“信息壁垒”中拯救出来。其次,利用算法推荐技术设计可供用户自我纠偏的系统,即让用户在长时间接收同质性信息之后,根据过往的参与行为自动测算出自己的偏好,进而引导用户有意识地纠正这种单一偏好,打开被算法遮蔽的天窗,为主流意识形态的渗透提供更多可能。

(四)管好算法:构筑算法推荐责任伦理体系

网络空间不是“舆论飞地”,算法推荐也不能被用来恣意妄为。只有构筑起法治约束、平台自律和用户自觉的责任伦理体系,才能真正管好算法,让算法为主流意识形态传播服务。

第一,要加强法治约束,明确算法推荐的边界和伦理责任。尽管我国已经相继出台了《互联网信息服务管理办法》《互联网视听节目服务管理规定》《网络安全法》等一系列法律法规,但相对于算法技术的迅猛发展,算法推荐领域的立法执法依然存在不足。为此,必须对人工智能时代的法律制度进行更加系统化、全面化的建构。首先,要加强立法的前瞻性。过去,往往是出现问题后才倒逼立法,这种“应激式”的立法机制不利于掌握发展人工智能的主动权。为此,要探索源头治理策略,加强人工智能领域风险研判,强化前置立法,做好专门法与配套法的统一规划与实施。其次,要从执法层面对平台和用户进行信用、经济等方面的制约。既要加大对商业平台寻租行为的惩罚力度,营造公平公正的市场环境,也要坚决查处用户的违法行为,不让负面信息的制造者和传播者逃脱制裁。

第二,商业平台要坚持自律。商业平台要处理好企业社会责任与技术理性扩张之间的矛盾,从宏观上认清社会利益、用户利益和企业利益之间的一致性。首先,算法平台要始终以社会主义核心价值观为核心构建推荐机制,牢固树立敬畏法律、尊重用户、尊重事实的伦理观念。其次,算法平台要主动接受第三方监督,推动算法推荐决策过程的透明性、解释性、公平性。

第三,用户要自觉提升算法素养。算法素养是指用户在面对算法推荐信息时所表现出来的态度、知识、技巧以及能力的总和。[14]高歌猛进的信息科技使得网民的主体性得到萌发,人人都有麦克风,都可以成为信息的编辑者和传播者,但是,如果网民缺乏必要的算法素养,那么就有可能为算法所役使,对主流信息的传播成效产生消极影响。因此,用户要主动了解算法原理,认清算法背后的權力属性和意识形态风险,主动规避“信息茧房”“过滤气泡”带来的危害,提高自身“免疫力”。同时,用户要不断提升审美趣味,提高信息分析和批判能力,主动生产、关注、评论、转发优质信息,减少对“流量党”“标题党”等信息的点击。只要全社会形成高扬主旋律的良好氛围,那么主流意识形态的传播“版图”必然会大大扩展。

参考文献:

[1] Fuller M. Software Studies: a Lexicon[M]. Cambridge:MIT Press, 2008:16.

[2] 张志安,汤敏.论算法推荐对主流意识形态传播的影响[J].社会科学战线,2018(10):174-182.

[3] 本报评论部.用主流价值纾解“算法焦虑”[N].人民日报,2018-06-20(5).

[4] 约翰·奈斯比特.大趋势[M].梅艳,译.北京:中国社会科学出版社,1984:15.

[5] 约翰·B.汤普森.意识形态与现代文化[M].高铦,文涓,高戈,等译.南京:译林出版社,2005:286.

[6] 凯斯·桑斯坦.信息乌托邦:众人如何生产知识[M].毕竞悦,译.北京:法律出版社,2008:8.

[7] 恩格斯.反杜林论[M]//马克思,恩格斯.马克思恩格斯选集:第3卷.北京:人民出版社,2012:487.

[8] 喻国明,杨莹莹,闫巧妹.算法即权力:算法范式在新闻传播中的权力革命[J].编辑之友,2018(5):5-12.

[9] 马克思.第六届莱茵省议会的辩论(第一篇论文)[M]//马克思,恩格斯.马克思恩格斯全集:第1卷.北京:人民出版社,1995:187.

[10] 白瑶.5G到来的技术思考——基于媒介环境学派的媒介技术视角[J].中国石油大学学报(社会科学版),2020(3):89-98.

[11] 蒋成贵.算法推荐对网络意识形态建设的挑战及应对[J].思想理论教育,2019(7):78-82.

[12] 弗兰克·帕斯奎尔.黑箱社会:控制金钱和信息的数据法则[M].赵亚男,译.北京:中信出版社,2015:259.

[13] 张瑞敏.大数据时代网络意识形态治理的机遇与挑战[J].中国石油大学学报(社会科学版),2018(1):89-93.

[14] 张林.智能算法推荐的意识形态风险及其治理[J].探索,2021(1):176-188.

责任编辑:赵 玲

Challenges and Countermeasures of Mainstream Ideology Propagation in the Era of Algorithmic Recommendation

WU Bao

(School of Marxism, Anhui University, Hefei, Anhui 230601, China)

Abstract: As a personalized information resource allocation paradigm in the field of information dissemination, algorithmic recommendation reshapes the traditional discourse dissemination pattern and brings many challenges to the mainstream ideology dissemination. The "cocoon of information" effect, the loopholes of check vacancy, the prospect of technology carnival and the logic of capital entrapment in algorithmic recommendation constantly erode the integration, penetration, appeal and leading power of mainstream ideology. In the new era, to get rid of the negative value consequences of algorithmic recommendation, we must continuously optimize, control, use and manage algorithms, so as to achieve a high degree of harmony between technical logic and value logic.

Key words: algorithmic recommendation; dissemination of mainstream ideology; technical logic; value logic

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!