时间:2024-08-31
全 燕 张入迁
(广东外语外贸大学 新闻与传播学院,广东 广州 510006)
在以移动终端为中心的智能传播时代,人类的所有信息行为都会被以数据形式存储下来,海量的用户信息为算法深度学习提供了样本数据,也为传播活动创造了新的机遇,于是一种基于算法技术的新型传播形态——算法传播诞生了。这种新型传播从内容生产、渠道组织、信息传递方式等方面都彻底颠覆了传统的传播模式,它以算法为纲,依据用户关键词生成定制化内容,在进行精准推送的同时记录用户的反馈数据,并据此调整后续的内容生成,从而形成了信息收集、内容生成、精准推送、效果追踪、内容调控的传播闭环,其中,关键词、内容生成建构了算法传播的基本框架。
当前算法传播的研究主要集中在以下几个方面:一是算法的内容生成;(1)参见罗昕《算法媒体的生产逻辑与治理机制》,载《人民论坛·学术前沿》2018年第24期;陈昌凤,师文《智能算法运用于新闻策展的技术逻辑与伦理风险》,载《新闻界》2019年第1期;刘冰《新闻策展:从内容整合展示到智能算法应用》,载《中国出版》2019年第22期;彭兰《增强与克制:智媒时代的新生产力》,载《湖南师范大学社会科学学报》2019年第4期;等等。二是算法的内容分发(2)参见王茜《打开算法分发的“黑箱”——基于今日头条新闻推送的量化研究》,载《新闻记者》2017年第9期;喻国明,曲慧《“信息茧房”的误读与算法推送的必要——兼论内容分发中社会伦理困境的解决之道》,载《新疆师范大学学报(哲学社会科学版)》2020年第1期;王斌,李宛真《如何戳破“过滤气泡”算法推送新闻中的认知窄化及其规避》,载《新闻与写作》2018年第9期;杨保军,杜辉《智能新闻:伦理风险·伦理主体·伦理原则》,载《西北师大学报(社会科学版)》2019年第1期;林爱珺,刘运红《智能新闻信息分发中的算法偏见与伦理规制》,载《新闻大学》2020年第1期;等等。;三是算法传播的效果(3)参见聂静虹,宋甲子《泛化与偏见:算法推荐与健康知识环境的构建研究——以今日头条为例》,载《新闻与传播研究》2020年第9期;范红霞,叶君浩《基于算法主导下的议程设置功能反思》,载《当代传播》2018年第4期;张志安《人工智能对新闻舆论及意识形态工作的影响》,载《人民论坛·学术前沿》2018年第8期;等等。;四是算法对于叙事方式与出版的模式创新(4)参见刘银娣《从经验到算法:人工智能驱动的出版模式创新研究》,载《科技与出版》2018年第2期;王思《智能化时代新闻媒体特点与生产模式创新》,载《学习与实践》2019年第1期;等等。。在上述研究中,算法传播的整个过程被拆解成了多个部分,然而事实上,算法自主形成了一个完整的传播网络,在这个网络中,算法不再只是充当技术中介,而是成为一个超级传播者,它依靠关键词分析和自动化内容生成,独立完成了以往需要传播组织内部分工协同的多项工作,而受众也演变为用户,作为一个个网络节点嵌入其中,并始终处于受控状态。
为了深刻洞察算法重组传播格局的动力机制和后果影响,需要从整体上对算法传播的构成和本质加以把握。我们认为,关键词选取和内容生成的效度是算法传播取得合法性地位的关键,而对关键词、内容生成进行源流考证,并分析它们如何被纳入智能化传播体系,可以清晰观察算法重组传播的过程、逻辑及发展现状,由此能够进一步探察算法传播如何嵌入用户行为,以及算法带来传播格局的裂变是如何改变社会现实的。
关键词作为节点化的用户数据,是算法传播发生的基础,而关键词最初是作为一个历史学的名词被提出,用来对语言和文化的意义进行概括。早在20世纪初,德国便开启了使用关键词的历史,其研究集中在社会与知识史上起着重要角色的词汇字典上,被称为“关于捕捉短语的研究”(Schlagwortforschung)和“概念的历史”(Begriffsgeschichte)。[1]1935年,英国语言学家J.R.Firth提出,社会学上重要的词可以被称为焦点或者关键词。[2]法语中也有一段很长的关键词研究历史,在20世纪50年代,法国词典学家Georges Matoré(1953)讨论了关键词(mots clés)[3],并认为词汇学是一门社会学学科。20世纪60年代,米歇尔·福柯(Michel Foucault)延续了这一传统,他也有自己喜欢的关键词,例如劳动、监狱、疯狂等。[4]1976年,雷蒙·威廉斯(Roymond Herry Williams)出版《关键词:社会与文化的词汇》一书,通过聚焦工业、民主、阶级、艺术和文化这5个领域的关键词,对整个社会的变迁进行概括。1996年,英国语言学家John McHardy Sinclair继而提出,关键词可以长期用来作为意义单位的集合,他认为语料库提供了一个强有力的交际行为模型。[5]
除在历史学、语言学、文化学、社会学等领域获得关注外,关键词同时也是计算科学领域的常见概念,并有着较为清晰的关键词应用历程。1959年,英国伦敦大学语言学家夸克(Quirk)建立了英国口语和书面语的“英语用法调查”(The Survey of English Usage,简称SEU)语料库,标志着语料库向计算机化发展,也成为关键词检索的元数据库。1961年,以美国的费朗西斯(N.Francis)与捷克斯洛伐克的库塞拉(H.Kucera)为首的语言学家和计算机专家在美国的布朗大学合作,一起建立了世界上最早的机读语料库,即布朗语料库(Brown Corpus)。语料库中的文本分为标注文本与未标注文本,可以根据关键词进行检索,语料库作为存放语言材料的数据库被用于自然语言处理当中。英国语言学家Mike Scott在1996年开发出Word Smith Tools软件,这款软件使用算法程序,根据词语出现的频率来确定关键词。20世纪90年代,计算机搜索引擎的出现使关键词成为一个高频使用的词语,并频繁出现在网络搜索的工具栏、新闻标题、学术研究的规范格式、图书馆编目索引、计算机情报检索等处。用户在搜索框中输入关键词检索内容,算法依靠强大的计算能力与分析能力就能将搜索页面呈现出来的内容按照从高到低的权重进行排列。
除搜索引擎、语义库之外,关键词也在其他方面使用,例如,当用户在浏览网页、社交媒体、购物App等界面时,算法会对用户的浏览足迹进行记录,并建立一个用户个人的数据库,紧接着对用户的数据进行分析与文本化处理,最后基于用户自身的信息、网络行为及历史足迹筛选出专属于用户的关键词。关键词的选择受到了用户行为频次的影响,当用户多次搜索或者浏览同一类型的内容,算法便会生成相对应的用户关键词。同时,关键词也受到用户差异化网络行为的影响,当用户检索、浏览与以往不同的内容时,算法会生成新的关键词。关键词将用户网络足迹进行总结概括,用户足迹即从一个持续性的行为变成了由一个个关键词组成的节点。
在互联网发展早期,关键词主要运用于门户网站的目录分类及搜索引擎中。用户可以在门户网站分类目录中选取符合自身需求的子目录,并在相对应的子目录中获取自己想要的内容。例如在以谷歌、百度为代表的搜索引擎中,用户可以通过搜索关键词获得想要的信息,早期的关键词也能满足用户并不算大的信息需求。随着大数据的到来,用户被大量冗余信息围绕,与此同时,基于内容的过滤方式与基于喜好的协同过滤方式也应运而生,两种技术集合形成了算法推荐系统(Recommender System),算法推荐系统以用户自身关键词标签作为信息半径,结合用户的信息与浏览足迹,挑选并推送满足用户个性化需求的信息。
我们发现,算法时代的关键词生成经过了两次编码、解码的过程。首先,算法将用户足迹进行解码生成原始字节,再对其进行编码生成用户数据,并储存在用户信息库当中。随后算法进行二次编码,将数据进行筛选,剔除多余用户信息后进行编码,生成关键词。关键词的生成,是为了实现内容的有效传播,但其“选择性认知”会削弱传播的信度。这是因为关键词是由用户信息、网络足迹、心理等多种元素构成的,处于底层的算法逻辑是用户的偏好集合,而这种单一性、同质性的逻辑结构与多元化的信息需求相悖。关键词的偏好性逻辑使算法能够帮助用户在日益复杂的媒体环境中导航,这种自动导航为算法平台注入了用户流量,从而使关键词成为算法平台的一个商业驱动力。由此可见,关键词代表着用户单方面的人格偏好,是对用户偏向中性、厌恶性的数据进行后置位排序与剔除之后的单向人格叙述。
经过了解码、编码而形成的关键词,包含了能指与所指两个方面。“在传播符号中,一个能指的形式可以有多个所指的意义,一个所指的意义也可以有多个能指的实体与之对应。”[6]但是在关键词中,其能指与所指均为单一语义,在社会语境与情感表现中都表现为单一性偏好。虽然关键词在用户不同使用情景下代表不同的含义,但是算法的线性思维无法区分这些不同的含义,这导致用户从一个立体的形象被压缩成了一个个承载用户足迹的节点化关键词。用户根据特定关键词在社交网络中形成趣缘、地缘社群,例如微博中的超话便是使用关键词将具有同一偏好或处于同一地区的人群聚集在一起,形成社群,而这些社群中又形成了以关键词为中心的私域流量。例如,快手以主播关键词作为中心进行私域流量聚集,与关键词相关联的用户被引流进入这个流量域中,并被整合到了一起,形成用户间交往的场景,增强了圈子的互动性。我们看到,今天的关键词不仅可以作为标签将相同属性的用户连接起来,也可以为内容生成提供路径,由此,一张内容生成的网络被关键词建构起来。
基于关键词的内容生成是算法传播主体的构成,而内容生成的内涵也经历了从网络传播到智能化传播的演变过程。Web1.0时代曾打破了信息的单向传播,网民的内容生成主要集中在门户网站、论坛等领域,例如天涯、猫扑等论坛的存在就形成了初期的社群传播,但彼时的内容生成仅限于网民间的发帖互动。Web2.0时代以社交传播为主,微信、微博等社交媒体崛起,这一时期用户之间的互动空前活跃,用户内容生成(UGC)作为一个新名词被提出。与此同时,这个时期的用户从Web1.0的偏向于“读”变成了Web2.0的偏向于“写”,个性化内容得以彰显。而Web3.0是一个强调智能化的精准传播时代,关键词不仅可以作为搜索引擎、推送程序的文本,也为算法的内容生成提供了语义连接点。这一时期,用户的网络数据被算法收集分析,算法依据其人口特征、网络行为习惯、浏览内容等因素生成节点化的关键词,并将同类的具有联系的关键词连接起来形成语义网(Semantic Web)。
语义网这个概念在1988年被万维网的发明者蒂姆·博纳斯·李(Tim Berners-Lee)提出,研究者将其定义为以Web数据为基础,以机器可以理解和处理的方式进行链接所形成的语义网络。[7]语义网起到了将关键词连接起来的作用,并为算法的内容生成提供了基础。首先,语义网为内容生成提供了方向,智媒时代强调的是个性化的内容生成,用户关键词被语义网聚合起来,形成一张囊括用户所有特性的网络,算法根据不同用户的关键词聚合网络,制定不同的内容生成策略;其次,语义网也为内容生成提供了素材,自Web2.0时代开始,活跃的专业机构、自媒体会就同一件事情提供不同的视角,算法根据对事件不同层面的数据进行语义概括并生成关键词组,通过语义网勾连的关键词组能够协助勾勒出细节更加丰满的内容素材。
而切实的内容生成还要取决于由关键词组成的用户画像。一方面,算法通过爬虫技术、网络日志、平台数据库收集等手段将用户网络数据完整、全面地记录下来;另一方面,通过物联网传感器(例如智能手环、智能眼镜等设备),算法也能够对现实活动领域的数据进行采集,同时将其与用户网络数据相整合,形成“线上+线下”活动领域的融合数据。算法依靠用户的个人网络数据、社交半径、时空情景生成极具个人特色、迎合个人喜好的定制化内容。但是用户的阅读喜好和习惯并不十分稳定,算法需要根据用户不同时期的数据变化预测出其需求的转变,以提高内容生成的精准度。而内容的定制化使得一些用户感兴趣、喜欢的边缘性的长尾内容的重要性得到了提升,用户的小众化需求也能得到满足。与此同时,用户的社会化内容需求也得到呼应,在社会性议题中,语义网同样对用户数据进行关键词标注,附加语义并进行连接,算法则根据语义网推测出实时的热点话题,如微博热搜榜便是依靠语义网所标注的关键词集合起来的。另外,社会性议题的内容生成也是一种分众化的内容生成模式,算法会根据用户的人口特征、行为特征、分布规律、趣缘特征、心理取向等方面的数据标注关键词,并形成语义网,进行社会性内容的生产。
宾夕法尼亚大学教授瓦斯(Watts)和康奈尔大学教授史楚盖茨(Strogatz)在关于网络结构与知识扩散的开拓性研究中提出了“小世界网络”的概念,并总结出两个特点:一方面是它的本地互动性强、网络聚合程度高;另一方面是它也兼具了随机网络的特点,交往的范围广,节点之间平均路径较短。[8]我们不妨假设,用户身处的就是一个由关键词构成的“小世界网络”中,其自身数据可以符号化为具有确定性的关键词,并与随机的社会化内容的关键词通过语义网连接起来,而算法的内容生成就成为个性化内容与社会化内容的交织。这种基于不同属性关键词语义进行内容生成的方式被称为“语义描述”(semantic description),它具有结构化的特点,即使用具体的框架,生成主题鲜明的内容。算法将能够表述内容主题的关键词放在标题与简介中,使用户能够直接根据这两者判断出内容主旨。与此同时,算法通常也会将与用户数据相对应的关键词展示出来,以此来吸引用户的点击、浏览。因此,算法的内容生成总体上呈现出标题、简介吸引人,内容模板化的特点。算法可以大批量地生成标题关键词与用户喜好相对应的内容,这种“语义描述”的内容生成方式也会使得“内容农场”(Content Farm)滋长。
在2006年初,美国Demand Media公司共同创建人罗森·布拉特(Rosenblatt)和肖恩·科洛(Shawn Colo)提出了一种新型创业公司的想法,后来被人们称为“内容农场”,这个创意具体的操作是基于对最流行的网络搜索查询的分析,快速、廉价地创建文章和视频。[9]内容农场嵌入在搜索引擎之中,指的是以垃圾内容吸引用户点击的网站以及账号。这些网站的经营者通过爬虫技术确定各大互联网平台的热点关键词,然后给撰稿人提供选题,撰稿人需要根据不同的选题快速产出内容。例如台湾Buzzhand网站,写手在该网站上发表内容后依靠浏览量获取收益,为了赚取流量,将收益最大化,写手按照每日热点生成大量的吸睛、低俗内容,并以标题关键词与界面图片吸引用户的点击。随着客户端的普及,内容农场形式出现了“升级”,即由平台账号对内容农场网站进行转载,例如Facebook上的“每日健康”账号就是对内容农场网站进行转载,并配上夸张的标题、图片、视频,以迎合时下的社会热点。
而智能化算法技术使内容农场的内容生产跨入实时化、自动化阶段,它能够根据各个平台的热点抓取关键词进行内容生成,例如算法可以快速生成与热点事件发酵时不一样的内容,并通过标题、简介、视频伪装成事件的最新进展,吸引用户的眼球。算法极大地提高了内容农场的生产速率与效率,经营者不再需要雇佣写手进行内容写作,而是直接使用算法进行内容生成,而不顾内容真实性及质量的批量生产逻辑会使虚假、垃圾内容大量存在,一旦用户信以为真,便有可能导致谣言的传播。2017年4月29日,台湾“COCO大马”网站使用算法抓取食品健康方面的关键词“洗肾”,并以此发布文章《黑心阳春面导致台湾人洗肾》,该文章引起用户大量讨论,COCOHK、健康新视界、每日健康等网站随后发布相关内容,同时通过账号在Facebook、Twitter等平台转载,并利用搜索引擎优化技术(Search Engine Optimization)提高该内容在各大网站以及客户端的搜索排名,引发轰动。该文章是算法的内容农场网站为了获取浏览量而生成的虚假内容,用户在未认清事实真相时产生了第三人效果,抱着宁可信其有、不可信其无的心态进行内容转载,进一步加剧谣言扩散。由此可见,算法在内容农场上的应用会加剧谣言发生与快速传播的可能性,当社会性事件刚发生、真相并不确凿的情况下,算法通过抓取了各类虚假的信息,以此类数据生成了虚假内容。用户接触到大量虚假信息,会产生恐怖,致使谣言丛生,而算法根据发酵过的谣言进行二次生成,就形成了一个谣言生成的闭环系统。
由于算法并无法直接控制用户的行为,所以需要生成符合用户喜好的内容,以吸引其点击、浏览,因此标题、内容简介及配图便很重要。算法擅长识别文本与图片,因此能够生成与用户相对应的内容。但算法在理解对话及因果关系这种偏向于逻辑的内容上仍然存在很大的不足,所生成的内容也会存在逻辑方面的欠缺。此外,算法的内容生成是完全依靠自然语言理性所进行的活动,缺少了人的感性意识,不过随着“情绪识别”算法被亚马逊、百度、微软、IBM等公司提出并展开研究,算法已经可以根据用户的面部表情判断其心情,并以此来调整后续程序的运行。我们有理由预测,未来的算法内容生成将会集高效、准确、客观、感性等特点于一体,从而实现对个人更加精准而全面的信息控制。
算法以关键词生成内容,依靠语义网将内容连接起来,并通过关键词将用户与内容相勾连,形成一个全新的传播格局,在这其中,算法集数据收集、内容生成、信息推送、效果反馈以及算法调教于一身,帮助形成了一个传播闭环。因此可以说,“算法传播是以大数据为基础,经由智能媒体,依靠算法技术驱动的传播,它是在传播社会学意义上整体发生异变的一种传播形态,它的传播对象、传播内容、传播方式、传播效果等均被纳入可计算的框架内,形成全新的传播模式”[10]。而算法传播依靠互联网存在,并随互联网嵌入社会网络之中,因此也成为社会重新媒介化的关键力量。
算法传播是一个依靠数据驱动的自动化过程,它一改传统传播组织的科层制结构,由算法独立承担传播中的多重组织角色。我们看到,算法不仅是传播者,还是把关人、生产者、中介、渠道、反馈者等,这使算法传播脱离了人工干预,完全实现了传播的实时、高效与精准。算法传播同时也是一个动态变化的过程,数据的反馈使得整个传播过程一直处在循环修正之下,为的是更好地迎合用户的喜好,形塑一个被用户接纳的现实世界,而用户的认知受到算法的影响,其行为习惯亦在每天的算法推荐内容阅读中养成。这也使我们熟悉的5W传播模式已经不再适用这种新传播形态,可以说,算法重组了一个符合智能化传播规律的新传播格局。
在新的传播格局中,为了保证传播过程的稳定性,消除不确定性,算法统率了整个传播过程,其中关键词、内容生成在算法逻辑下根据特定的数据形成;精准推送依据内容关键词与用户关键词之间的匹配度;用户反馈为下一次算法传播过程提供调整指令……可以说,算法传播以关键词和内容生成为基础构建了一个稳定的信息控制模式。而信息控制的实质在于对数据的控制,通过数据控制,用户被分解成了由关键词组成的节点网络,算法依据关键词语义进行内容生成与推送。与此同时,算法实时监测用户的动态,用户的反馈又将作用于新关键词的生成,帮助算法学习对后续传播过程进行调教,至此,一个程序化的传播闭环跃然纸上。
此外,算法根据用户数据生成关键词,并以此为本进行内容生成与推送,所依据的是用户与互联网文本之间的匹配度,若文本标题、内容关键词与用户匹配度较高,就会被算法标记推送;反之,则会失去算法可见性。用户在接收到不同内容后,其效果可能会产生分野,即需求得到满足或者未得到满足,这期间用户的浏览、分享、评论等行为数据均将会被记录,算法会根据反馈调整内容生成的模型,若反馈的效果良好,算法会进一步固化既定的内容生成模型;反之,则会对模型进行更新。
我们发现,算法传播依靠算法自身驱动力对信息网络中的对象、关系、属性、事件、过程进行描述,符合拉图尔提出的“授权”(delegation)概念,即算法执行上述行为的这一过程不需要与人类进行互动或额外的知识获取。拉图尔将授权分为四个步骤:翻译、构图、黑箱、授权。[11]我们也可以根据这四个步骤探察算法获得传播主体性地位的过程。第一个步骤翻译即用户为了达到某个目的使用技术的过程,例如当用户想要做一首诗,却无法独立完成时,可以将具体的主题输入给微软小冰,借助算法生成特定主题诗句,但是结果不一定会让用户满意。也就是说,当技术参与到用户的目标行动中来时,最初的目标可能会被改变,这个阶段取决于用户对于技术的使用。若是多个用户与多种技术相互配合进行活动,便需要进入第二个步骤——构图,即不同的人与不同的技术合作负责不同的任务,构成一个完整的行动过程,这个阶段属于用户与技术的融合。当技术变成产品时,便会出现第三个步骤——黑箱,例如当算法被应用到今日头条当中时,搜索引擎上所有的行动者会形成一个复杂的网络,这里的行动者意为人类、技术、观念等所有物体,在这个由复杂的网络构成的黑箱中,用户与算法之间的联合生产变得完全不透明,换句话说,用户与算法之间的主客体关系开始模糊化,至此,“授权”开始发生。在算法传播的过程中,随着算法技术在数据收集、分析,内容生成、内容推送、效果反馈上的发展与成熟,算法能够依靠自身进行稳定、完整的信息传播,传播过程中的不确定性消失,算法从而获得了“授权”,即技术本身能够完全接管向用户传递信息的任务,这个时期的算法技术就完成了从客体到主体的转换。而人的主体性也在算法技术获得授权的过程中逐渐消逝。
众所周知,传统的传播模式会受到传播过程中噪音的影响,传播效果也随之发生改变,但是算法传播是一个传播的闭环,整个传播过程的不确定性被排除,这也使传播效果更趋稳定,然而没有噪音的介入也导致算法控制空前加剧。算法传播的可计算性、可控性会使人的行为模式简单化,并按照其预设好的内容流动的逻辑进行行动与反馈,算法以此来影响、控制、改变用户的认知、态度、行为,而用户沉浸在算法传播的拟态环境下,也将逐渐被算法驯化。很少有人会关注整个算法传播的运行逻辑,这是因为算法对用户的个性化培养会大幅度削弱用户对其“黑箱”的质疑,这导致算法偏见很多时候并无法被人识别。多伦多大学研究人员Deborah Raji与麻省理工研究人员Joy Buolamwini在对亚马逊图片识别系统Rekognition进行研究后指出,该系统在对肤色较深的女性性别进行检测时,其错误率比判断肤色较浅的男性性别高得多[12],而这些人因检测结果错误很可能会受到执法人员的搜查。可见,当算法的技术霸权增强时,自身带有的偏见性的识别后果会导致对某些用户的压迫与歧视,形成用户之间的不平等关系。
算法传播依靠的是可量化的数据,可量化的数据的完整度以及质量决定了内容生成的质量,换句话说,用户的数据越是完备,所生成的内容就越有质量,也更能达到理想的传播效果。而这些数据绝大部分来源于互联网公司,媒体研究者尼克·库尔德利(Nick Couldry)就将谷歌、亚马逊、Facebook、百度、阿里巴巴等称为社会量化部门(social quantification sector),它们保存用户每天的日常社会行为,用户的每一次网络点击都被记录下来,并转化为可量化的数据。[13]能够生产出更多优质数据的用户普遍拥有更先进的移动设备,也会更加主动参与到网络事务当中,并有更加宽广的用户足迹地图。但还有一部分用户媒介素养并不足够,所产生的数据的数量及质量无法与拥有优质数据的用户对等,那么数字鸿沟就将持续扩大,其结果是在算法传播所构成的拟态环境中形成“数字阶级”(Digital class)。数字阶级中的用户被算法依据其提供数据的大小、质量进行划分,处于更高阶级的用户会获得更加充足与高质量的内容,而处于底层的用户则面临被垃圾信息、虚假信息所包围的可能,他们也很难从这种信息茧房中挣脱出来。而算法传播所形成的数字阶级在很大程度上也是对于现实世界阶级的固化。
除了形成数字鸿沟外,算法传播还容易导致算法依赖乃至“成瘾”。这表现在算法传播能够通过信息精准推送来实现对用户点击行为的控制,并影响用户对于具体事件的态度、观点以及相关内容后续的点击行为。一方面,算法通过内置的许多“先验假设”和“限制参数”来为用户的生活提供便利,帮助其做出决策[14],以达到控制的效果;另一方面,算法还会根据用户的经验数据进行参数设置,设定可以推送与不可以推送内容之间的界限,并且往往是以用户的喜好作为参照。算法推送采取的是“瀑布流”的模式,即当用户阅读完一则内容后,紧接着会为用户生成下一则内容,使人逐渐产生媒介依存症。这是由于算法作为“技术多巴胺”,会使用户在饮用“科技瘾品”——自动化生成内容的过程中得到了自我满足。而为了获得更多的满足感,用户会进行持续性内容浏览,并在此过程中自觉产生积极反馈,持续为算法的深度学习饲喂数据,用户的行为就这样在无形中被算法操控。而当用户感觉到在算法平台中可以获得满足感与快乐,且获得这些感受的时间由自己控制,他们在算法平台上逗留的时间和频率也会大大增加,这被称为“变率强化”(Variable Ratio Reinforcement)。[15]在这种机制的作用下,用户注意力被算法平台吸引,耗费过多精力于网络世界后,难以从中抽离;而固化的内容又会强化用户的单一性思维,思考也随之减少,导致无论在线上和线下,用户都变得越来越像一个模式化的机器人。
在算法传播过程中,用户越依赖算法,算法的学习能力就会越强;而通过算法调教,用户受控程度也会越深。当算法根据用户停留时长、评论、转发分享等形式的反馈判定用户需求被满足时,会形成一种正向的反馈,带有用户原有关键词的内容被重复收集,原有用户画像被进一步固化,算法的生成内容会朝着偏好这一极端的方向走去;而当算法判断用户需求未被满足时,就会对原有的关键词进行重新排序,并根据用户最新数据更新关键词,修改用户画像并调整内容生成的策略与方向。由此可见,算法传播自动化生成与反馈相互作用、彼此影响,整个传播过程处于实时更新的循环链当中,随着用户数据的变化,算法能够智能化地改变传播的各个环节,迎合用户各个阶段的个性化需求。例如在传播效果反馈阶段,无论是浏览、评论还是转发,都需要耗费时间,因此用户在算法推荐页面停留时间是算法进行预测的不可或缺的一项指标,为了尽量延长用户的停留时间,算法会习得用户喜好,推荐个性化的吸睛内容,以此吸引用户的注意力。这里值得强调的一点是,由于算法与用户之间的互动是通过中介数据进行的,所以算法得到的反馈并非完全为用户是否得到满足的真实反映,而可能只是用户在内容界面的行为信息,这也就是说用户行为数据经过语义描述所表达的意义并不一定符合用户内心真正想要表达的含义。但这并不妨碍算法继续学习,只要用户持续产生数据,传播内容和传播效果就会无限接近个性化传播的最优状态。
媒介学者马歇尔·麦克卢汉(Marshall McLuhan)在《理解媒介——论人的延伸》中曾提出了“内爆”(Implosion)的概念,他认为,电力技术的应用加速了媒介的发展,塑造了“内爆”的环境,打破机械时代的时空距离。此后社会学者让·鲍德里亚(Jean Baudrillard)发展了这个概念,他眼中的“内爆”可以消除虚拟与现实之间的界限。在如今的算法传播时代,现实与虚拟的界限被打破,算法制造的信息符号是我们赖以认识世界的主要手段,通过虚拟的信息符号,算法可以建构一个“仿真”的虚拟世界,进而产生鲍德里亚所说的“超真实”的幻境。这种拟态环境使用户具有身临其境的感受,产生心理满足感,并影响自身行为。但正如鲍德里亚所担心的,“当媒介在人与社会之间、人与人之间把任何互动通通内爆为一个平面,内爆为一个单向度的时空现实之际,整个社会交往和社会价值都被瓦解了”[16]。某种程度而言,算法传播正依靠其无远弗届的网络建立了一个“内爆”的社会,一方面,用户在算法传播所建造的拟态环境中成为数据的提供者以及被算法饲喂的个体,并被算法所推送的偏好性内容所麻痹;另一方面,用户被算法困在依靠自己网络数据所建立起来的超级全景监狱中,其在网络中的交往行动潜移默化地受到了算法控制,而在超级全景监狱的凝视中,用户的价值观也逐渐被算法型塑。
算法传播使人在传播活动中全面退让,并将传播的权力交给了智能算法,这虽能使人们从大数据溃决中获得局部解放,但这种退让也将人的主体性转移给了算法。用户在与算法的对话过程中,话语权会随之降低,这也是算法传播可以通过信息传播控制社会的一个重要原因。可以显见的是,整个传播过程并非按照人的思维进行运作,而是依靠代码中内嵌的逻辑,形成以个性化为中心的传播格局,并在闭环式的运行中逐步窄化、私域化、商业化。受高度个性化的算法传播影响,现实社会无疑也将面临共识分裂、阶层固化的风险。
就算法传播的现状来看,关键词、内容生成都是依靠网络数据中概括出来的语义运行,而包含在数据中个人与社会情绪、心理、属性、关系等,还无法轻易通过语义表述的层面被筛选过滤,然而解决这个矛盾似乎只是时间问题。2005年,美国未来学家雷·库兹韦尔(Ray Kurzweil)在其著作《奇点临近》(The Singularity Is Near)中做出预测,科学技术的发展将在2045年迎来“奇点”。[17]如果奇点真正来临,人工智能将超过人类,用户的数据就能够完全被算法所理解。也许就在不久的未来,算法不再需要像现在一样,必须通过分析在线数据预测现实世界的变动,而是能够基于未经加工与转述的原始数据,精确生成关键词与内容,整个算法传播系统也不再局限于满足用户偏好的逻辑,而是能够根据用户所处的场景进行实时调整。到那时,算法传播实现了与真实世界传播的无缝契合,或将成为能够真正满足人们需求的传播形态。
然而当算法进化到比我们更懂得传播法则,更懂人心的时刻,真实世界里的交流是否会逐渐萎缩?传播的真谛是否从此改变?当算法控制的“全球脑”(Global Brain)被掌握在占有数据最多的超级国家或寡头互联网公司,平台帝国主义(Platform Imperialism)是否会成为新地缘政治中世界霸权的新形态?算法重组的传播格局在未来具有无限发展的可能性,同时也蕴含着巨大的发展风险,无论如何,如何使智能化传播朝着使世界更加美好的趋势发展是我们应该思考的问题,也是需要努力去实现的愿景。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!