网络内容生态治理的多元主体责任规制

    林爱珺 章梦天

    【摘要】互联网技术的不断发展和算法、大数据等内容分发的不断应用,网络信息生态环境发生了巨大的变化,政府对内容信息的秩序维护早已捉襟见肘。《网络信息内容生态治理规定》的及时出台意义重大,它以互联网生态治理为目标,将网络信息内容服务平台、网络信息内容生产者与使用者一同纳入治理主体,构建了多元主体协同共治的模式,明确了内容生产者、使用者的行为规范,提出了“全主体参与、全流程监管、全环节覆盖”的制度设計,倡导“开放和自主”“服务和管理”,为提升网络信息内容治理效能,构建良好网络生态做出了重要探索,但也存在主体责任分配不清、不良信息概念不明、技术治理简单武断等问题,需要进一步研究。

    【关键词】网络生态;互联网治理;多元主体;平台责任

    2020年3月1日,《网络信息内容生态治理规定》(下称《规定》)作为首次以“内容生态治理”为目的的互联网规章正式实施,提出“全主体参与、全流程监管、全环节覆盖”的制度设计[1],重点对网络信息内容生产者、网络信息内容服务平台、网络信息内容服务使用者三大行政管理相对人在网络生态治理中的责任与义务作出了明确规定,为用户及企业平台自主开展生态治理提供了基本遵循和参考指南,标志着新时代背景下我国网络信息内容生态治理工作走向新阶段。

    一、网络信息内容生产者的责任规制

    “人人都有麦克风”的时代,网络信息内容生产逐渐形成了一套低进入门槛、高效率产出、个性化传播的生产逻辑,拥有不同目标和专业化程度的生产者涌入网络空间,信息内容表达主体的复杂化转变进一步增加了网络信息内容治理的难度。面对鱼龙混杂的网络信息内容生产者,《规定》从生态治理出发,将网络信息内容生产者视为内容治理的参与主体之一,重点对内容生产者的行为进行规制,明确了内容生产者的责任;将以往被动的“事后追责”改为“事前引导,事中监测、事后溯源”相结合,对生产者制作、复制、发布信息的全过程进行监管,在“开放和自主”“服务和管理”主流价值取向中展开治理。

    一方面,《规定》从内容层面对网络信息内容生产者的行为进行规范,从源头上把控信息质量。网络的便利性、匿名性环境带来了信息的极大丰富,也带来了信息污染、虚假信息、网络谣言等。《规定》聚焦于信息内容的界定与分类:将信息内容分为倡导性信息、违法信息和不良信息,细化了之前《网络安全法》中对内容的概括性要求,使内容生产更具方向感。《规定》对过去出台的“九不准”负面清单进行了补充,增加了对否定、诋毁英雄烈士事迹及煽动实施恐怖活动、极端主义活动等违法信息的限制,同时进一步加强了对炒作绯闻、宣传“三俗”内容和煽动人员、地域歧视等不良信息的监管。针对当前泛娱乐化内容大肆传播,不良社会思潮泛滥的生态问题,《规定》没有一味强调对内容生产者禁止式事项的管制,而是将对用户的引导前置于内容生产过程中:在给内容生产者划“红线”的同时,鼓励生产者主动创造符合社会主义核心价值观、优秀道德文化和时代精神的正能量内容,如开展内容评选机制,定期举办话题征集或精选推荐活动以激励生产者不断优化自身内容质量,为网络信息内容的基本表达提供日常参考指导。

    另一方面,《规定》对网络信息内容生产者的责任实行“事中监测、事后执行”模式,提出健全用户注册、完善账号管理、建立用户账号信用管理等制度,与企业平台一起对发布违法信息及不良信息的网络信息内容生产者进行监管。这意味着内容生产者除了依法承担法律责任外,还要面对失信联合惩戒。平台将以信息内容审核为标准,根据用户账号的信用情况为优质内容用户提供相应服务,对那些为吸引流量和博取关注度而生产低俗、夸张、刺激等不良内容的生产者应该采取警示整改、暂停更新等处置措施,对严重违反《规定》的内容生产者依法实施关闭账号、限制上网。

    二、网络信息内容服务平台的责任规制

    在过去很长一段时间,我国网络信息治理主体主要以政府为中心,平台被单纯视为治理对象,参与度与积极性很难得到体现。网络化社会的今天,信息资源的流动改变了传统权利格局,掌握信息权利的主体不再仅仅是政府等社会管理者,以微博、微信及今日头条为代表的大型内容分享平台和社交服务平台,通过算法技术、内容分发审核技术、流量推荐机制对信息的可见性及配置权重新分配,成为新的权利汇聚中心。

    过去我们的平台治理主要借鉴“美国数字千年法”(DMCA),过多强调技术中立,平台对不良内容甚至违法信息往往“睁一只眼闭一只眼”,信息内容生产责任观念淡薄,对网络信息内容缺乏监管。针对企业平台的“商业利益本质”,《规定》优化了“避风港原则”,立足于“政府、平台、用户、行业”多元主体协同共治的生态格局,进一步压实了网络信息内容服务平台作为多方利益攸关者的信息内容管理主体责任,将提供网络信息内容传播服务的平台纳入网络综合治理体系之中,对网络信息内容服务平台的内容审核、用户管理、个性化算法推荐机制完善等责任义务进行了规范,也为平台参与内容生态治理提供了基本遵循。

    《规定》在第三章第八、九、十条明确提出服务平台应当履行信息内容管理主体责任,建立网络信息内容生态治理机制,制定本平台网络信息内容生态治理细则,加强对信息内容的实时审核巡查,赋予了平台依法立即采取处置措施的第三方行政管理责任。[2]面对纷杂冗余的信息浪潮,传统单一依靠政府部门“事先许可+事后审查”的信息内容监管模式亟待更新。平台作为信息内容的集散地,掌握着先进的技术力量,在内容审查方面具有天然优势。《规定》强调了网络信息内容服务平台的“在线看门人”职责,提出网络信息内容服务平台应设立业务范围和服务规模相适应的专业内容生态治理人员,将技术与人力有机结合,在算法模型及人工智能技术的加持下完善自身内容审核机制;鼓励平台提供适合未成年人使用的网络产品和服务,开发青少年模式以便培养未成年人的健康精神,塑造正确的价值观。今日头条推出的“头条辟谣”及“灵犬反低俗小程序”,利用关键词筛选、屏蔽、语义识别功能对平台内容进行自动监测,对严重危害社会信息秩序的网络谣言、失实报道等信息进行应急处置;再通过人工审核对内容进行筛选与分类,过滤低俗、暴力等不良信息,有效治理网络信息内容,培育积极健康、向上向善的网络文化。

    为避免出现“一刀切”问题,《规定》还要求平台与其他各部门及用户之间形成“配合监管、全员监督”模式,建立信息共享、信息公开、协同共管的监督评价机制,健全人工干预和用户自主选择机制,编制网络信息内容生态治理工作年度报告,对自身内容生态治理工作的履职情况、社会评价等内容进行汇报,并制作台账提供事实和相关证据。

    三、网络信息内容使用者的责任规制

    从Web1.0到Web3.0,UGC(用户生产内容)模式已成常态化。用户的每一次转发、点赞、评论在创造点击率、流量等经济效益的同时,也被视为一次新的信息内容生产过程,信息在用户主动生产与互动传播的过程中裂变式增长。多元化的生产形式打破了传统内容生产者与使用者的边界,用户责任的混同为网络内容生态治理带来更多复杂性和不确定性。

    《规定》将使用网络信息内容服务的组织或者个人概括为网络信息内容使用者,其对于“信息使用”行为的强调突出了内容生产传播过程中用户的自主性,也为内容使用者的责任划分提供了依据。网络信息内容使用者并不简单等同于信息的接收者,其发帖、回复、留言、“弹幕”等网络活动参与行为具有主动性,《规定》明确规定,网络信息内容服务使用者应当文明健康使用网络,依法依约参与网络活动,做到文明互动,理性表达。针对近年来频频出现的用户恶意刷帖、控评、侮辱辱骂他人等网络暴力、网络侵权行为,《规定》强调内容生产者不得通过发布信息或以其他干预信息呈现的手段侵害他人合法权益或者谋取非法利益,不得利用技术手段实施流量造假、非法交易账号等行为。

    但需要指出的是,不同于对生产者与平台的强效规制,网络信息内容使用者虽然作为《规定》中重点规制的三大行政管理相对人之一,责任承担比例却不高,对其行为管理除部分依托于平台外,主要诉诸用户自律机制的设置。一方面,《规定》依托网络信息内容服务平台开展信息内容實时巡查,对上述违法信息及不良信息内容的使用者进行管理。如新浪微博在《规定》实施后展开“蔚蓝计划”,采取技术审核过滤、人工主动巡查、用户投诉等方式对恶意标题党、绯闻炒作、虚假信息发布等用户账号进行监管。另一方面,《规定》强调内容使用者既是参与者也是监督者,需与内容生产者共同承担优质内容生态的治理责任。用户可以通过投诉、举报等方式对网上违法和不良信息进行监督,共同维护良好网络生态。

    此外,随着社交媒体的不断发展,以微信群、QQ群为代表的网络群组及论坛社区越来越成为人们日常生活的主要信息来源及社交方式,却也为网络谣言传播、侵犯用户隐私等违法违规行为提供了温床。自2017年起,我国互联网有关管理规范便对群主建立网络群组等网络行为作出了规定,提出“谁建群谁负责,谁管理谁负责”的管理要求。在此基础上,《规定》再次明确了网络群组建设者与论坛社区管理者的管理责任,并提出平台应制定并公开响应管理规则,完善与内容生产者和使用者的服务协议,规范群组、板块内的信息发布行为。

    四、多元主体参与网络治理的优化路径

    进入21世纪,伴随着中国媒体融合的进程发展,互联网技术下的社会信息传播模式已发生根本性变革。保障网络空间的天朗气清,营造良好的网络信息生态,不仅关系到每个信息内容使用者,也关乎到社会公共文化的正确走向。[3]自2020年《规定》正式实施以来,公安部、网信办已接连开展“净网”行动、“清朗”行动等专项活动整治网络空间,各网站平台也皆在对照《规定》要求,展开自查自纠、多措并举推动生态治理。[4]总体来看,《规定》从生态治理出发,将网络信息内容服务平台、网络信息内容生产者与使用者一同纳入治理主体,为提升网络信息内容治理效能,构建良好的网络生态做出了重要探索,但也仍然存在不同参与主体责任分配不平衡、不良信息界定模糊、侵权责任认定困难,同时,过度依赖技术治理也存在很多潜在问题。

    (一)进一步明确治理主体的权利义务

    《规定》确定了网络信息内容生态的多元治理模式,但如何协调、引导、控制和规范各个参与主体之间的权利义务关系,以最大限度地寻找秩序和平衡还需要深入的探讨。完善网络信息生态治理不仅需要内容生产者、使用者、内容服务平台及网络行业的多元参与,更应强调参与治理主体间的平等互动与责任分担。平台作为协议的起草者、系统的设计者以及内容管理的执行者具有较大的管理权力,可能导致平台权力滥用或平台责任难以落实。如2020年11月,歌手老狼发文怒斥新浪微博恶意限流,直指平台垄断话语权,逼迫用户花钱买服务的事件再一次提醒我们,用户个体在网络治理中的势单力薄,网络信息内容生态治理中“人的参与”还应更加凸显。

    (二)进一步明确不良信息内容认定与鉴定标准

    《规定》中对于违法信息及不良信息的划分是当前网络信息内容服务平台进行内容审核的基础,但缺乏对“不良信息”概念的明确界定。不同事件、不同场景下,人们对于“不良信息”的认知也不同。例如,《规定》关于防范和抵制“夸张标题”与“不当评述灾害事故”的规定,就可能由于不同情境中对“夸张”与“不当”的界定不清晰及鉴定程序不完善而导致在实践中的认定困难。平台虽有权对违法违规内容进行及时删除、屏蔽、封号等处理,但缺乏具体法律依据则容易导致用户的表达权受损。如2016年10月,腾讯平台在接到用户举报后,认定东方网旗下“媒体早餐”推送的题为《揭秘!为什么街上香喷喷的烤鸭只卖19元一只?真相震惊所有人!》的微信公众号文章涉嫌造谣传谣,在作出封号七天的处罚后,却遭到东方网总编辑的强烈抗议,认为腾讯平台滥用职权。

    (三)善用技术治理,引导技术向善

    目前,对于网络信息内容的审核主要依靠技术审核及人工审核两种形式。《规定》中虽已明确平台具有对违法及不良信息内容的审核责任,却并未明晰信息审核的具体流程。面对海量信息内容,内容审核的巨大成本与不同水平的技术限制等因素导致一些平台在内容治理中过度依赖人工智能技术,采取过于简化的审核流程,对“疑似违规”的内容使用简单粗暴的“删、封、堵”方式,而忽略了个体化、场景化叠加下技术的难以预见性,消解了网民用户的自主性和创造性;亦有一些平台在对内容的审核标准中嵌入私人利益考量,一方面可能对公民的表达自由构成威胁,另一方面也会助长网络侵权行为。

    习近平总书记指出,“要以技术对技术,以技术管技术,做到魔高一尺、道高一丈”[5],必须引导技术向善发展,服从于制度、服从于人的治理思维。网络信息内容的治理宗旨终归是服务于人,以人为本的导向思想不能改变。已有治理体系能否持续具有应对新技术、新应用的适应能力,这些规制能否得到有效执行、发挥效用,从而真正服务于民,实现网络信息生态的长治久安,是值得我们认真思考的问题。

    (本文为国家社科基金重点项目“十八大以来新闻舆论在治国理政中的作用机制研究”的研究成果,项目编号:16AZD051)

    参考文献:

    [1]支振锋.提升网络生态治理效能的制度探索[J].信息安全与通信保密,2020(2):5-11.

    [2]陈璐颖.互联网内容治理中的平台责任研究[J].出版发行研究,2020(6):12-18.

    [3]中共中央关于坚持和完善中国特色社会主义制度 推进国家治理体系和治理能力现代化若干问题的决定[M].北京:人民出版社,2019.

    [4]《网络信息内容生态治理规定》施行以来网站平台自查自纠见成效[EB/OL].http://www.cac.gov.cn/2020-06/29/c_1594983545070661.htm.

    [5]习近平.在网络安全和信息化工作座谈会上的讲话[M].北京:人民出版社,2016:19.

    (林爱珺为暨南大学新闻与传播学院教授、博士生导师;章梦天为暨南大学新闻与传播学院博士生)

    编校:王 谦