时间:2024-09-03
■ 李林容
随着网站算法不断升级,智能算法接管了人类信息分发的权力,成为大众传播的新“守门人”,演变成了一个具有复杂社会功能的机器,驱动着媒介生态环境的重构。新闻传播学学者也开始将算法的运用进行扩展,算法推荐新闻、记者与数据分析工具的关系等算法时代信息传播的相关问题开始被关注。本研究旨在将“算法权力”这一新的批判意识引入传播学领域,探讨算法推荐信息产生的问题及隐忧,揭露其隐藏于代码中的“伪中立性”。通过对算法科技的实践与产品本身所传达的信息进行解析,文章将会指出算法“伪中立性”产生的根源、具体表现形式及危害。笔者认为,通过对现代人网络行为的持续性观察、学习、理解、调整与操纵,智能算法同时拥有“作恶”的权力,“技术中立”与“无价值观”等主张是平台逃避作为媒体的社会责任的一种手段。社会亟待对算法权力进行引导与规范,进而发挥其在大众传播中的积极作用。
“传播社会关系内部的一种粘聚力,它是无法窥见的,或者没有明确和永久的形式”,①因此,传播学学者们基于他们所处的现实社会建立了不同分析层次的大众传播模式,以便使传播过程中无法看见的联系与结构显现出来。自1948年拉斯韦尔的“5W模式”起,不同兴趣格局与侧重点的大众传播模式为我们揭示了大众传播系统多面的解剖图。机器智能算法作为一种全新的传播技术,已经成为了大众传播过程中的重要环节,但是,抽象的词语叙述很难将其在整个传播系统中的关系结构、强度与方向进行全景展示。为了探明智能算法“伪中立性”的生长环境,下面笔者将在对各种经典传播模式整理的基础上,以图像模式作为之后理论阐发的辅助工具,对算法参与的大众传播现象进行描述和解释。
为了叙述得更为明晰,下面对模式的解析将以“千人千面”算法为核心竞争力的“今日头条”新闻客户端为案例。据数据显示,今日头条的月用户已经达到1.5亿,每天有近 7000 多万人花76分钟在今日头条上观看新闻、视频。②在智能算法技术的推动下,今日头条已经成为中国最大的媒体渠道,因此,以其为代表展开论述,可以比较准确地展示出智能算法在大众传播系统中扮演的新角色。
上图中,A 是指大众传播系统中的海量信息数据库。X1、X2、X3…至Xx是传播系统中复杂的信息来源。今日头条主要有三大信息数据库来源渠道,X1是媒体渠道,包括:传统媒体、新媒体与自媒体等等。据2016年4月的数据统计,今日头条平台内已有16000家媒体机构入驻,其中传统媒体超过2000家。③X2是搜索引擎的网络爬虫,网络爬虫是一个对互联网上超链接进行爬取以获得新闻内容的技术。网络爬虫并不是在互联网的信息大海里“捞针”,在爬取信息之前,平台会预设新闻来源渠道的关键词,比如:新华网、澎湃新闻等,然后网络爬虫就会锁定这些网站,进行新闻抓取。④X3是“头条号”内容生态。“头条号”是今日头条通过“千人万元”“百群万元”等激励补贴计划建设起来的自己的内容平台,以原创为核心,已经与超过30万的媒体组织、政府机构、甚至金融企业合作。目前,今日头条超过73%的内容都是由“头条号”贡献的。⑤
C是A与B(信息接收者,下文详述)之间信息传递的“看门人”或者“中介”——人工智能算法。根据B的需要,C会从A之中混乱且众多的X们中选取信息Xac传递给B。这个选取的过程是如何实现的呢? X的讯息在通过C传播链时发生了怎样的变化?这种变化又是以怎样的方式实现的?以今日头条的智能推荐算法为例,当新用户注册后,今日头条会关联这个用户的其他社交媒体软件,比如:微信,微博,QQ等,然后根据这些数据,绘制用户的“初步画像”。当用户开始使用软件时,算法会为用户推荐内容去“试探”用户兴趣点,并每隔10秒就对用户的白描进行一次更新。在一次次地分析、理解、纠错、调整过程中,用户画像会逐渐趋于动态的精确。这就是B对C的反馈机制。同时,算法也会对平台每天成千上万的信息进行细致地解读,将X信息“标签化”。也就是C对A的理解与分类。最后一步就是将标签化的信息与用户画像匹配值高的新闻Xcb实时地推荐给用户,从而实现资讯与个人的精准匹配。
我们可以看到,C的角色是双重的:一方面,C是B的需要的代理人;另一方面,C也要为A服务。C的本质是一个“降熵”的过程。熵的原意是描述热量转换为功的过程,后来著名数学家及传播学家香农提出了“信息熵”理论,用以表示信息量的大小及信息的不确定性。依据香农的解释,当信息不确定性的程度越高的时候,信息量就更多,熵值也就更高;反之,当信息确定程度越高时,信息量就更少,熵值随之越低。智能算法C就是以“降熵”的方式,对复杂无序的信息系统A进行筛选,从而保证B得到与其最相关的信息。C通过连接A与B,以其精准性、规律性、有序性的减熵能力消解了A系统中信息的不确定性与无组织性,进而最大程度的确保B对平台的忠诚度。而且,作为A与B之间的连接,C不具备垄断A或B任何一方的能力。因此,如果C的行动真实的传达了B的需要,那C可以被视作无意图的。
B 代表的是信息的接受者。B最重要的作用是其主导的反馈机制,即B流向A与C的反馈。B对C的反馈很好理解,即通过贡献网络空间及现实空间的实时数据帮助C绘制更为精准的用户白描,从而最大程度地保证C在筛选信息的过程中,能够为B提供更为匹配的信息。值得注意的一点是,智能算法极大地优化了整个反馈机制,能在极短的时间内精准地修正当前和未来的传播行为,例如今日头条每隔10秒进行的用户白描更新。B对A的反馈,是互联网时代独特的反馈流向。在万物互联的网络时代,用户接触信息的渠道变得更为多样,因此,B可以通过不同的信息平台与A直接联系,形成反馈流。另外,B也可以直接经历X,例如,作为一场交通事故的参与者。
通过对传播环节的细致梳理,我们可以发现,算法作为一种新兴的大众传播技术是具有本体论意义上的中立性与客观性的。然而,算法在大众传播系统中的绝对中立性却是一个伪命题。因为,算法的信息源A并不是所存在的全部信息,而是有选择的信息系统。从A的信息来源占比来看,头条号的内容占今日头条整个信息系统的三分之二以上,其作为今日头条自身搭建的内容平台,头条号平台的独立性有待商榷。并且,无论是自己设立媒体机构的合作规则还是网络爬虫的“关键词”,我们都很难将信源A视为一个无目的性、无意图的信息系统。所以,虽然A不能直接作用于用户B,但是A其实从源头上规定了算法C可以处理的信息属性。再者是算法C的中介角色,算法作为推荐引擎时代新的信息“守门人”,很大程度上决定了新闻客户端呈现的形态,亦新闻平台的核心竞争力,因此,基于利益,平台不会公开其推荐算法的全部原理。这种信息其筛选规则的不透明性与计算机科学的复杂性,使得算法本身带有一种信息处理的“隐秘性”,对它的操纵自然也带有一种“悄然性”。另外,与传统人工编辑相比,算法把关的效率极高,范围极广。这样,当算法被利益组织霸占,进行恶意的议程设置时,整个传播系统将会被轻易地控制。
当大众传播系统的信息源头和传播中介之间有任何一个环节或者两大环节都存在人工设计的痕迹时,这个传播过程就带有有意传播的成分。因此,算法的绝对中立性只能在“真空”的传播环境中才有可能实现。但是,像今日头条这样以盈利为目的的平台,其算法必然与之商业利益相关联。算法推荐隐含的是市场逻辑,而平台用户实质上是消费者,所以,这种“真空的”环境是不存在的。这样,大众传播系统中的算法科技不能被视为纯粹而没有价值观的技术手段,恰恰相反,算法本身和其与信息源头的连接都贯穿着人为因素,它们的行为对整个信息流动与传播系统的结构有着决定性的作用。基于这种思考,下文,笔者将把“算法权力”这一全新概念引入传播学领域,这里使用“权力”一词而非“权利”是为了专注于算法在大众传播中的控制力问题,将重点聚焦在算法对于大众传播的可能效果、参与者之间的关系以及参与者们与社会之间的关系的操控上,从而揭露隐藏于代码中的“伪中立性”,即智能算法可以怎样被利用从而作用于人的思维,而不为他们所知。
1.高度仿真的“拟态环境”
著名新闻学者李普曼曾提出,人类社会主要有三大环境:第一,不受人主观意志所转移的客观环境;第二,大众传播媒体根据传播目的,对客观现实进行选择式报道而构建出的拟态环境,即“象征性现实”;第三,人类将自我认知与拟态环境相连接,而建立出的主观环境,即“脑海图景”。我们可以看到,拟态环境是个人主观环境与客观环境的连接中介,直接影响了人们主观意识的形成。通常来说,客观世界的含义与拟态环境的含义是不可能完全一致的,因为大众媒介无法对复杂的客观世界做“镜子式”的摹写。但是,算法技术将大众传播链中的薄弱环节——反馈系统进行了优化,算法高效精准的反馈机制可以使信源的传播方式及内容更有效地适应信宿的主观世界。在大众传播中,信源的发射端有一个“编码程序”,“编码”主要为了将讯息调整成为适配传播渠道及满足预期讯息接收者的代码。在算法推荐新闻中,智能算法主导了整个信息编码的过程,是数字时代新的信息“编码器”。面对特定的场景,算法可以自动生成一套信息编码的模式,进而应对人们的实时实地的信息需求。算法成为了信息接收者的代理人以及需求和兴趣的解释者。这样,算法就极大程度地促进了拟态环境与主观环境含义的一致性。
拟态环境与主观环境意义的趋同,将极大地削弱信息接收者的“译码”能力。根据“使用与效果”理论,个人的特性、对媒介的期望与感觉以及接近媒体的程度将会导致个人做出是否要使用某一大众媒介内容的决定。⑥换言之,接收者也同时拥有信息的筛选权与阐释力,这一信息选择与吸收的过程与其本身的主观意志紧密相连。当算法搭建的拟态环境与其主观环境越趋于一致时,接收者的“译码”能力与选择权就被慢慢地剥夺了。算法威胁着人类的智慧,这是算法推荐新闻长期的、无计划的以及对集体而不是单一个体造成的后果。另外,相较于传统媒体搭建的“拟态环境”,算法通过个性化推荐议程设置所搭建的信息环境更为真实与自然。由于媒介信息选择、加工与结构化的过程通常发生在媒介内部,人们无法看见,所以人们会无意识的将拟态环境与客观环境连接。在这种情况下,拟态环境极易刺激信息接收者的现实行为,这也是利用算法推荐新闻的客户端虚假新闻、广告等极易造成巨大经济损失与社会危害的原因。
2.“圈群文化”的规训
“在一个规训制度里,个人化是一种‘下降’”。在君主专制社会,对个人生活地报道,是其权力的体现。然而,在规训体系里,个人化描述的标准得以降低,这种描述,福柯将其定义为一种“控制手段”和“支配方法”。⑦智能算法是网络时代实现个性化描述最有力的手段。算法描述并不是把人进行整齐划一的分类,相反,是进行区分和“标签化”。这种区分是通过对用户“结构化的数据”进行操控得以实现的。以抖音为例,作为一个短视频平台,它的内容结构化程度和文字内容不相上下。这种结构化通过品类的设计体现,打开抖音,可以看到段子、宠物、美妆等6个品类。通过品类的选择和深度体验,用户很容易沉迷其中。技术人员会通过算法对每个品类进行持续地监控与管理,定期在每个品类下生产出新的“爆品”,确保用户能在其本人“标签”的指导下持续的进行原创与模仿实践。
精确的个性化描述的主要目的是构建“圈子”。正如白馥兰所道:“科技是一种交流和传播的形式”。⑧在对个人的行为进行塑造的同时,算法科技的迭代也左右了当代人与人之间关系的生产。内容社交平台,算法打造社区,形成了新的人际交往形式——“圈群文化”。以目前盛行的“抖友文化”为例,“抖友文化”是依托短视频平台抖音建立的。抖音通过用户的协调过滤算法制造了具有很强身份认同的“抖音公民”。抖音的圈子文化已经从平台内虚拟地交流,延伸到现实生活中的人际关系的生产。基于平台中相同的“标签”,虚拟网络和现实网络实现了二维重合。抖友们依靠在网络社区中设立的暗号(抖友出征,寸草不生、王盖地虎,小鸡炖蘑菇、滴,滴滴),在现实生活中延续着抖友文化的实践。随着圈子的粘性增强,圈子不可避免的会出现排他性,所以圈群文化的另一面是“排斥”。因此,社交媒体在运营的后期往往会出现“文化边界”。因为“在能接纳同一种或者几种近似的文化的背景下,一大群人才能生活在一个社交网络或者说一个‘社会’中。不调和到乃至产生冲突的文化,会自然的在人群与人群之间产生边界”。⑨边界的产生使新用户难以进入,他们只有寻求新的圈子来满足自己网络社交的需求。这样,无数的替代小平台将会涌出。这看起来和全球化作用下的媒介集团化和纵向一体化趋势相矛盾。但是,小平台的产生是符合巨型公司风险规避战略的。以腾讯公司为例,其旗下关于直播的产品就多达9款。这似乎会带来网络生态的多样化与多元化。但是,本质上来说,这种多样化带来的是用户的“分散”与 “管理”上的便利。人们在自己选择的圈子里活动,画地为牢将自己封闭起来。而智能算法对每个圈子设置着精准的规范,一个个通过类似算法形成的圈子将逐渐压倒人的主体性,人在其中的秩序下生产着内容和人际关系,但这并不完全是人创造性行为的结果。
3.“隐秘的”网络等级制度
“千人千面”的个性化算法推荐机制表面上实现了网络公民的平权,但其实算法通过“节点”的设置建立了一个网络等级制度。社交网络形态类的平台搭建以节点为单位,节点与节点的连接就会构成网络。但是大部分平台为了在建立之初吸引更多用户,都会采用“无标度网络”,这种网络存在头部的枢纽节点,节点以幂次分布。头部节点就是我们常见的大V,网红,明星等。通过算法进行网络节点设置,就自然的对用户进行了分类,第一类是能承载更多链接数的“枢纽节点”即“明星”,第二类才是普通用户。当把头部用户和普通用户纳入到同一个整体中时,平台本身就成了一个等级空间。这种等级划分是通过智能算法实现的,通常是以粉丝数量,内容点击量等数据作为标准。
从数量上排列,区分用户有两个主要的意义:第一,管理的需要。平台的资源集中到头部枢纽节点上,头部用户的信息拥有“特权”,会被算法优先分发。信息资源不平等的分发维护了由区分产生的管理便利。权力者只需要对头部用户进行管理和控制,就可以“过滤”大多数的普通用户所接收到的信息。值得注意的是,这里所说的“管理”并不是指一种绝对的控制,因为我们不能否定主体改变客观结构的实践能力,不然就犯了索绪尔和结构主义者的错误。这里的“管理”是指在“无序的”网络世界里一种最优的影响、左右及控制网民的途径。第二,通过“惯习”机制,一种明确的有规则的层级网络将被自然地建立与接受。布尔迪厄所定义的“惯习”有一个很重要的特质 ——“无意识性”,这是指“集体和个人的实践基础上逐渐获得的一种在无意识的情况下依规律行动的能力”。⑩通过长期的,缺乏明确意识的,没有清晰目标的,却又合乎目的的接收算法分发的头部用户生产的内容,人们将会自然把自己放入层级网络的“下端”即接收端。而智能算法的作用就是实现这个“自然化”的过程,使人为的东西在重复的作用下以一种自然的形式呈现出来,而这种“自然化”是一种“自在”而非“自为”的行为。
1.算法作用下人的“物化”
“科技所做的最重要的工作就是生产人自身:制作者被制作所形塑,应用者被应用所形塑”。“物化”是卢卡奇在《历史与阶级意识》中提出的重要概念。卢卡奇认为在资本主义社会,人的“物化”主要体现在两个方面:一是“人的一切关系的物化”,因为资本主义社会强调商品的交换价值,导致人与人之间的关系扭曲为物同物的关系。二是“人自己的活动,人自己的劳动,作为某种客观的东西,某种不依赖于人的东西,某种通过异于人的自律行为来控制人的东西,同人相对立”。推荐引擎时代,人的“物化”是依靠算法推荐内容必然的,现实的结果。不同于资本主义社会中人与人之间物与物的连接。在算法驱动的社交行为中,人与人之间连接的本质是数据之间的连接。智能算法根据对用户数据的分析和理解自动的为他们推荐好友,建立社交圈子。相较于人在资本主义商品化过程中被动的“物化”,算法是一套依靠用户自身选择而实现的主动行为驯服程序。其次,算法推荐是“区分”与“分类”。当用户在平台注册后,页面会提供丰富的品类,如宠物、电影、旅游等让他们选择。根据这个选择和之后对行为数据地采集,算法将自动的把用户进行分类整理然后进行个性化推送。在区分整理的过程中,用户作为人的主体性逐渐被数据取代。我们可以看到,算法时代人的“物化”是依靠“数据化”形成的。人与人之间的关系转化为数据与数据之间的关系,而数据成为了新的规范。同时,数据也在逐步吞噬人类认知的个性,人最终会被自己创造出来的数据统治。
在算法“物化”人的过程中,对人的“麻醉”功能也凸现了出来。个人式的信息选择会使用户获取的一切信息都在支持已有的知识与观点。内容获取便不再作开拓视野之用,用户的关注视野会越来越窄,最终形成“信息茧房”。“信息茧房”是指“信息传播中,因公众自身的信息需求并非全方位的,公众只注意自己选择的东西和使自己愉悦的通讯领域,久而久之,会将自身桎梏于像蚕茧一般的‘茧房’中”。依靠算法的个性化信息推送带来的是人思维的无意识,当这种无意识的思维成为了人们世界观与价值观的基础与框架,人的纵向与横向思维都很难进步。随着时间的推移,“数据化”的人将会失去对整个社会的理解与全局批判的能力,甚至会造成群体“极化”现象。
2.算法议程设置对人主体性的遏制
同时,在这个“物化”的过程中,网络参与者的自主性与创造力也将受到损害。这也许与一般的看法相悖。比如录制短视频被普遍视为很“潮”且富有创造力的行为。但是通过对抖音,快手等短视频平台进行分析,我们可以发现其中蕴含着巧妙的“议程设置”。议程设置最初是指通过对信息的安排,来引导甚至左右人们对于新闻的态度及探讨方向。短视频平台主要通过设置“挑战”和“话题”来实现议程的引导。利用热门话题的推荐,新挑战的设立来暗示和诱发用户进行特定内容生产。表面上用户充满自主性与创造力的内容发布行为是服从于机器算法及背后的权力者的,更不用说平台通过人工手段对视频内容进行的审核对人的限制。
这种带有政治经济学色彩的论述,很容易受到受众研究理论家的批判,他们主张Web2.0时代“人人都是麦克风”的传播特性加大了议程设置的难度,“网络自身的开放性、互动性赋予受众极大的传播权利,实现了媒介的接近权,他们可以忽略媒介的议程设置,自由选择、浏览,通过‘拉’出自己感兴趣的信息,作出判断,重新为自己设置议程”。的确,绝大数的平台都允许用户自定义发起话题,比如最右,第一弹,也包括前面提到的抖音和快手等。但是,我们应该明确的是,无论是否可以自主发起话题,用户有多大的自主创新权力,都取决于各个公司对其产品的定位与对用户的理解。本质上,这都是算法进行议程设置的结果。人的主体性及创造力,都是在一个算法搭建的、被定义的、有限的范围里发挥。
3.算法作用下人的商品化
算法推荐新闻平台通常标榜着“免费”的信息服务。但是,“免费”并不是一个非盈利概念,而是带有独特的经济属性,什么不免,什么免,免到什么时候,都是被规则所包裹的。人们往往会忽略免费才是目的,正如原始部落的送礼行为并不是单纯的赠送而是为了维护权力者的统治地位一样,今日头条等新闻客户端的免费商业模式也有异曲同工之处。它们的盈利模式就是将用户商品化。以今日头条的医疗丑闻为例,其通过“二级跳”广告展示模式规避法律漏洞,实现其盈利目的。按照规定,某些广告是不能呈现在平台上的。但是,今日头条通过两个页面的方式为假冒药品打广告,一个符合标准的页面,一个需要做广告的页面,然后用第一个页面过审,过审后再在引导至第二个页面上。因为有智能算法的“加持”,这些广告获得了巨大的点击量,用户作为商品的交换价值不断提高,今日头条的广告费用也水涨船高。
推荐算法不仅能计算出你感兴趣的新闻内容,也可以为用户推送量身打造的广告。在算法的“包庇”下,这些广告具有一种潜移默化的魔力,当用户处于这种“沉浸式”的环境下,将很难抵御虚假信息的侵袭。另外,用户还极易成为平台商业竞争的工具,在与腾讯公司的竞争中,今日头条强行篡改新华网的新闻内容,设计了腾讯的负面新闻,并进行了“全量”推送,也就是说,并不是个性化推送,而是所有今日头条的用户全部“强制”接收。我们可以看到,今日头条宣称的“没有编辑团队,不进行人工干预,全靠算法学习进行个性化的机器推荐,也不进行内容的加工生产,只做内容分发”是一个伪命题,其所有的价值观都蕴藏在本身设计的算法推荐系统中,而平台本身可以肆意的利用算法权力作恶。由于今日算法从未公布其推荐算法都取决于哪些权值,我们也无法对其进行批判,只能任其一再让算法“背锅”。但是,我们可以看到的是一种中介的、有效的、“创造真实的力量”在活动,这股力量带来了很多颇具危害性的衍生后果。标榜为科技公司,只是其逃避作为媒体的社会责任的一种手段,推荐算法不仅仅是展现了用户的兴趣点,更是平台本身及既得利益者价值观的体现。
算法权力,绝不仅仅是今日头条用户独自承担的后果,事实上,它潜伏在所有人的身上。因为,在互联网时代,算法并不是独立存在的,其已经逐渐形成一个宏大的连续的统一体。每天早上我们打开今日头条浏览新闻,然后使用微信、微博,抖音,快手等。各种平台算法各异,受众分散,相互重叠,重复或模拟,通过数据互通,相互关联,它们逐渐汇聚在一起成为一个连续的,不间断的体系。一种自然的、微妙的 “虚拟网络”就这样形成且不断循环优化。这个“虚拟网络”的本质是智能算法时代新的规范人的手段,是一种中介的塑造的力量,其最终将成为权力体系重要的组成部分。Facebook通过改变算法影响美国大选等事件提醒着我们,智能算法凭借其强大的影响力已经开始成为弄权者战略调动中的重要手段,越来越多的被用于政治或商业的目的。当平台以算法为掩护,拥有了制定游戏规则的权限时,权力的结构必然发生变化。我们不应该再把机器算法预设为中立的技术手段,因对其保持警惕性。
对算法权力的引导与规范可以主要从三个方面展开。首先,从平台内部来看,我们应该积极建设算法新闻专业主义,加强对新闻推送算法运行团队新闻价值观的培养。将公共理性置于工具理性之上,确立一种新的公共传播指导哲学。从外部角度,我们应当坚持“人机结合”,平衡机器分发与人工编辑新闻的比例。确保人类信息接收渠道及形式的多样性,避免算法垄断新闻领域,构建传统媒体、自媒体与算法媒体和谐共存的大众传播体系。另外,从法律的角度,对算法背后平台权限的规范迫在眉睫,不能让平台成为规则的制定者,让用户成为企业商业博弈的武器。智能算法是人类智慧的结晶,在追逐其技术可能性与商业前景之前,治理与规范应当先行。只有当算法技术为我们所用时,我们才能受益其中,否则,带给我们的只有无数的传播乱象。
注释:
①⑥ [英]丹尼斯·麦奎尔等:《大众传播模式论》,祝建华、武伟译,上海译文出版社1981年版,第4、111页。
② 宋玮:《对话张一鸣:世界不是只有你和你的对手》,《财经》,2016 年12月14日。
③ 赵梦迪:《“今日头条”传播模式研究》,浙江大学硕士学位论文,2016年。
④ 王成军:《“今日头条”的技术逻辑:网络爬虫+矩阵筛选》,《传媒评论》,2015年第10期。
⑤ 数据来源:http://event.sj998.com/ruigongsi/484836.shtml。
⑦ [法]福柯:《规训与惩罚》,三联书店1999年版,第216页。
⑨ 虎嗅网:《张一鸣只是想要一个微博杀手》,https://www.huxiu.com/article/239665.html?rec=manual.2018-04-12。
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!