智媒体传播中“算法推荐”伦理的冲突与规制

    【摘要】通过从过度依赖“算法推荐”技术、片面追求经济效益至上、客观存在人性自身需求因素和法律法规滞后于媒体技术发展等层面审视了“算法推荐”伦理失范的动因,据此提出要以“主流价值”引领为前提,建立算法+人工的新闻内容伦理“双把关”审核机制;以“多途径推荐”改革为基础,建立个性多样性的新闻内容“双选择”推荐机制;以法律法规底线为保障,建立他律自律的新闻传播伦理“双约束”规范责任机制;以媒介素养教育为基础,建立培训引导的智媒体平台“双主体”个人隐私数据保护机制等规制策略,希望能够促进人机共生平衡,最大限度消解“算法推荐”伦理失范所产生的危害。

    【关键词】智媒体;算法推荐;伦理风险;治理策略

    智媒体是网络新媒体与人工智能(AI)、大数据(BIG DATA)、VR/AR、人机交互等互联网新兴技术高度融合所呈现的具有智慧功能的信息传播媒体,“算法推荐”被作为技术工具内嵌其中,成为新的传播形态的载体,导致“专业媒体机构的业务流程被颠覆,而且技术运用中出现了价值判断问题”。[1]由“算法推荐”形成的自动分发和推送内容给网络受众带来了全新的信息获取渠道与体验方式,尽管它尚未在传媒业推及,但从目前已出现的情况来看,我们必须警惕其中潜在的伦理风险,正确对待伦理失范带来的挑战,探析合理规制路径,这既是提升网络治理能力现代化的迫切需求,也是完善坚持正确导向的舆论引导工作机制的现实需要。

    一、算法推荐:一种满足用户兴趣和信息需求的新兴技术

    所谓“算法推荐”其实就是以计算机为载体利用用户的一些行为,主要通过相关数据模型,借此推测出用户所蕴含的可能的爱好内容和兴趣。“算法推荐”作为一种计算机技术在智媒体新闻内容生产和自动分发、推荐新闻内容中起着越来越重要的作用,在基于内容推荐、协同过滤推荐、热门推荐等多种推荐形式下,新闻生产模式的旧有格局正被打破和重构,带来新的信息传播革命。

    “算法推荐”的主要目的是为了满足用户的兴趣和需求信息。算法中第一个推荐系统诞生于1994年,当时美国明尼苏达大学GroupLens研究组提出了协同过滤重要技术,推出了自动化推荐系统GroupLens。此后,推荐系统不断运用于音乐、电影、书籍等产品的推荐,并广泛运用于电子商务领域。2009年12月,谷歌进行个性化尝试,为用户定制搜索结果,这明显是一种“算法推荐”的运用。Facebook、Twitter等媒体平台开始在推荐算法设计下进行新闻推送。

    “算法推荐”技术在我国媒体平台的运用最早应追溯至2012年,“今日头条”运用算法技术进行新闻内容的自动分发,成为进行个性化新闻推荐的内容聚合平台。随之,“一点资讯”、腾讯“天天快报”等媒体平台都开始运用“算法推荐”技术。技术本身没有“好”与“坏”的区分,但其一旦与用户的偏好和信息需求结合起来,“算法推荐”自然就面临着伦理问题。

    二、伦理失范:智媒体中“算法推荐”呈现的问题与风险

    (一)从“客观真实”要求到出现“信息虚假”泛滥,传媒业机构遭遇公信力消解

    坚持新闻信息内容传播时的真实性,是对传媒机构及其从业人员最基本、最底线的要求和应遵循的新闻传播准则,也是媒体最重要的伦理功能之一。智媒体信息的传播主要依靠“算法推荐”技术途径运作,算法已嵌入从新闻内容选题到分发的各个新闻生产环节之中,其“黑箱”程序逻辑的标准就是依据用户(受众)在网端接触到信息内容自动判断他(她)的喜好,并在庞大数据对信息进行处理生产的基础上针对不同的目标群推送其感兴趣的新闻资讯。在新闻生产过程中,由于软件程序无法自动判断识别数据的真假,算法存在偏见和局限,在缺乏人工审核的背景下,由算法在拟态环境中塑造出的新闻能确保真实和客观吗?

    2016年8月,美国著名社交媒体Facebook的“趋势”新闻板块发生一起假新闻事件而被推上了热搜榜,这则完全依赖算法筛选出的新闻信息被修正之前已获得了数千次转发。2018年2月,Youtube就承认由于算法失误而向用户推送了关于美国佛罗里达州枪击案阴谋论的视频假新闻。类似案例并不在少数,这也充分说明了过于依赖算法对于事实真相的报道也并不能完全做到尽善尽美,“甚至失误率相当高”,由此看来,“在数据依托下的真实性成为算法新闻无法回避的短板”。[2]杨保军、杜辉认为,由于数据源失实导致的新闻失实、数据依赖导致的失实和核实困难等原因,又加之“缺少与事实比照的过程”,因此算法新闻“依然存在严重失实的风险”。[3]试想,智媒体传播的新闻信息内容一旦失去了客观性和真实性,其公信力逐步得到消解就成为可能,新闻传播伦理面临前所未有之挑战在所难免。

    (二)从“公共价值”领域到选择“个人偏好”取向,主流价值观遭遇解构窘境

    从新闻传播职业伦理角度来看,媒体具有比较鲜明的公共职责,在满足社会公众信息需求时“必须要担负一定的社会公共责任和道德标准”,同时“必须要有明确的价值坚守和伦理准则”。[4]传媒机构应牢牢把握正确的舆论导向,且不能片面追求流量和利润而满足少数人的需求。事实上,在“算法推荐”影响下,一些智媒体平台推出的内容伴有低俗化、恶俗化和庸俗化现象,甚至出现了色情、暴力等内容,“没有正确的价值导向,算法主导的新闻业极易产生负面的社会影响”[5]。由于“算法推荐”的逻辑主导,处于“信息茧房”中的用户(受众)在媒体平台“个性化推荐”影响下接受自己所偏好的网络内容产品,很容易导致其陷入价值迷失困局。

    (三)从“个人隐私”泄露到凸显“著作权窃取”频现,网络空间遭遇侵权风险

    尊重个人意愿、尊重个人隐私是公众在社会生活中应遵守的基本伦理原则,同时也是媒体应当遵守的社会道德原则和职业准则。伴随人工智能和大数據等互联网新兴技术的迅速发展,受利益的驱动,个人隐私权越来越容易受到侵犯,“大数据带来的最大伦理危机是个人隐私权问题”[6],个人隐私泄露问题已成为智媒体传播中迫切需要关注和解决的伦理问题。我国发生“史上最大数据窃取案”——“瑞智华胜涉窃案”,将近30亿条用户数据泄露,大部分数据来自于一些知名智媒体平台使用AI技术收集的用户隐私信息。基于“算法推荐”的需要,媒体平台需要通过人工智能和大数据技术采集抓取年龄、性别等基本个人信息和阅读浏览网络数据记录等行为信息,进行数据分析、深度挖掘,运用算法实现用户的精准画像,以此追踪解读用户的偏好和兴趣等,利于平台更好地精准实现个性化信息自动分发。从系列伦理困境来看,这种侵害比传统的隐私权侵害更加隐蔽和难以防范。

    网络伦理道德是社会伦理道德的延伸和扩展,在网络空间中,包括隐私、知识产权在内的侵权活动都是一种背离社会伦理道德的活动。杨保军、杜辉认为,智媒体传播中存在着智能新闻对由人创作的作品的著作权的侵害和智能新闻之间的著作权益的侵害两种情况,这里既有技术方面的原因,也与法律保护不健全有关。[7]智能新闻产品生产中,“算法推荐”要以抓取、挖掘互联网上存在的大量数据为基础,然后自动生成内容。“今日头条被判287宗案件侵权”报道就在国内引起较大的舆论轰动。由于机器无法自动识别他人权利作品,本身由他人原创的作品就被媒体平台利用大数据和人工智能技术直接抓取,“摇身一变”成为其他媒体平台智能新闻内容的一部分。从目前来看,这种侵犯著作权的事例并不少见。

    三、动因追问:智媒体中“算法推荐”伦理失范的探析

    (一)过度依赖“算法推荐”技术,“把关人”作用弱化或缺失

    传播学中,在传播者与受众之间,“把关人”在继续或中止信息传递中起着决定作用。长期以来,“把关人”在确保新闻的真实性、树立媒体的权威公信力和引导主流价值舆论等方面发挥着至关重要的作用。进入智媒时代,媒体争相采用人工智能和大数据等新兴技术,技术在新闻生产和传播中正被不合理使用和滥用。算法新闻一旦自动化生产,“把关人”的角色就会被弱化,“把关权”逐步被算法消解,无法识别、理解人类思想意识和判断新闻价值的机器所生产出的新闻产品缺乏有效监督,主流价值观失去统一引导,最终的结果是“媒体公共性和社会责任缺位,工具理性和价值理性失去了平衡,新闻专业主义的天平被根本打破”。[8]

    (二)片面追求经济效益至上,媒体道德底线降低或失偏

    大数据、云计算、人工智能等互联网新兴技术的逐渐成熟为中国互联网经济的发展提供了新机遇。艾媒咨询发布的报告(2019)显示,当前,中国互联网共享经济市场规模达7.358万亿元,预计到2020年,中国互联网共享经济市场规模将超过9万亿元。学者郭全中认为,智媒体是立足于共享经济,基于人工智能、大数据、虚拟现实技术等发展起来的媒体形态,不但能形成一套商业模式,而且可以实现多元盈利。在智媒时代,面对激烈的市场竞争,作为独立的市场主体——各媒体平台为提升其生存和发展的空间,获取更多的广告收入,主要采用资讯增加流量进行变现模式实现盈利,其背后是增强用户黏性。算法技术以受众需求为导向,有些媒体在经济效益面前忘却了肩负的社会公共责任,片面认为增加新闻信息的点击量和关注度可以换来流量的增加,最终实现盈利,从而忽视了社会效益。

    (三)客观存在人性自身需求因素,媒介素养面临能力不足

    恩格斯认为:“人来源于动物这一事实已经决定人永远不能完全摆脱兽性,所以问题永远只能在于摆脱得多些或少些,在于兽性或人性的程度上的差异。”[9]由此可见,用户本身具有纯粹的原始需求欲望,猎奇、窥私以及关于性的心理在人身上存在在所难免。如果用户本身道德水平就存在差异,文化需求层次不高,那些“三俗”之类的内容被“推荐”而至就顺势迎合了个人需求。再者,受认知、心理和习性等因素影响,用户处于“信息茧房”之中也变得更具惰性,被动地接受机器推送而来的相关内容,失去与高媒介素养用户交流的机会,信息接收逐步狭窄化甚至封闭化,最终导致内容朝着用户想看的方向倾斜。

    (四)法律法规滞后于媒体技术发展,技术道德体系尚未形成

    为着力维护清朗的网络空间,我国不断完善法律法规和政策制度,有效保障并促进了互联网健康有序发展。从目前来看,关于互联网在意识形态领域的法律和制度还相对滞后于网络新兴技术的发展,存在着立法力度不够、法律效力较低、法律条文不够细化和留有空白等方面的问题,网络空间法律的立、改、废工作任务艰巨,治理执法体系不够健全。再者,技术道德体系尚未完善,建设尚不够成熟。如果法律一旦滞后和制度缺失,“不能满足爆炸式信息发展需要”,缺少必要的约束,信息污染的问题就会随之而来,“表现出的危害性越来越大,损害了信息生态环境”。[10]

    四、规则策略:智媒体中“算法推荐”的治理路径

    (一)以“主流价值”引领为前提,建立算法+人工的新闻内容伦理“双把关”审核机制

    学者张涛甫认为,一个社会的良性运行和健康发展需要主流价值的感召和引领,主流价值缺位,不利于社会发展。[11]在传统媒体对社会价值观的调控手段日益失去原有导向效能的情形下,将社会“主流价值”引领作为有效构建智媒体时代主流文化的前提就显得日益重要,成为网络空间伦理道德建设的当务之急。尽管“算法推荐”依靠人工智能和大数据进行数据挖掘、实现信息与用户的匹配,但从本质上来讲这一技术蕴含的还是设计者的意图,设计者的意图影响着主流价值是否偏向。因此,为确保算法新闻的信度、效度和舆论导向的正确,应充分利用“技术把关”,同时辅之以“人工把关”。一是算法要融入人的思考和伦理,预设好主流价值立场和道德立场,用规范的新闻专业性完成对算法推荐的规训,将符合社会主流价值观的内容作为传播的主旋律,确保用户获取到媒体平台分发的主流价值产品。二是充分运用人工智能和大数据等技术,对虚假新闻信息、“三俗”、色情、暴力等内容进行精准识别和过滤,提前做好预警和把控。三是实行人工智能+人工审核,对智媒体信息内容传播进行认真把关,通过人工编辑辅助“算法推荐”,更好地引导新闻价值回归本位,避免处于“信息茧房”中的用户受到伤害,通过价值引领智媒体所肩负的社会责任。

    (二)以“多途径推荐”改革为基础,建立个性+多样性的新闻内容“双选择”推荐机制

    一是积极推动算法新闻弃“暗”投“明”。在目前的智媒体传播中,“算法推荐”是各媒体平台较量高低的“秘密武器”,出于商业利益考虑,他们很难自愿公开“黑箱”中的秘密。新闻的透明性已成为塑造新闻价值观与媒体形象的重要原则,因而破解算法黑箱在智媒体新闻生产传播中导致的“算法偏见”,提升算法的透明度和公开性显得尤为迫切和必要,必须在充分考慮媒体组织的商业利益和用户合法权益的平衡基础上,从立法、制度、行业规则等层面加强“算法推荐”操作实践的透明度,引导媒体从业人员自觉遵守透明的伦理规范。二是建立多形式的“算法推荐”机制。由于运用“算法推荐”机制所生产出的新闻最终会对用户形成“信息茧房”和“个性化拟态环境”的副作用效应,信息来源路径的单一窄化限制了用户信息选择多元的需求,因此可以考虑建立多元化推荐系统,在过去用户社交关系、浏览记录、用户基本信息等主要推送指标在内的“算法推荐”机制基础上,考虑加入传播内容影响力、传播效果、传播时效、用户满意度等指标,为用户提供更多有价值的信息。“对用户画像分析时要减少低俗、过度娱乐化的画像”[12],净化传播内容生态环境,加强用户关注正能量内容的兴趣引导,提升用户的价值观。

    (三)以法律法规底线为保障,建立他律+自律的新闻传播伦理“双约束”规范责任机制

    维系和调节人类生活秩序和人际关系不可或缺的两大规范为法律规范和伦理。法律规范,任何人都需遵守。在智媒时代,我国必须完善此领域的新的法律法规体系,同时对倡导建立新的伦理制度给予支持。一是要完善网络传播法律法规。主动学习和借鉴先进国家网络传播法律法规的有益经验和做法,在我国《網络安全法》等现有法律法规基础上,限制“算法推荐”权力的滥用,进一步建立健全网络隐私侵权和版权侵权、网络隐私泄露、内容生态等层面的法律法规治理体系。加强对媒体平台、机器法律责任主体界限的调研,规范人工智能和大数据技术获取个人隐私信息的目的行为,加大对数据安全和版权内容的保护力度,营造风清气正的网络空间环境。二是倡导行业自律规范伦理道德体系建设。要凝聚共识,明确智媒体信息传播伦理原则,引导建立统一的行业规范,定制大数据、人工智能在智媒体中的使用规则,如杨保军、杜辉根据智能新闻生产的特点,提出新闻生产者应该遵循透明、风险可控、知情同意、核查与更正等基本伦理原则,为进一步发展新闻伦理规范提供了参考和借鉴意义。三是建立监管评议评审机制。行业主管部门及媒体单位必须履行好监管责任,加大对“算法推荐”的执法检查力度,对违法责任者予以惩戒,增强法律教育效果。同时倡导建立行业伦理评议评审委员会组织,开展内容监测评议工作,定期向社会公众公开媒体机构伦理的公共社会责任承担情况,约束或减少失范行为。

    (四)以媒介素养教育为基础,建立培训+引导的智媒体平台“双主体”个人隐私数据保护机制

    一是加强马克思主义新闻观的学习教育。“能否坚持马克思主义新闻观,直接决定着新闻舆论事业的兴衰成败。”[13]要将马克思主义新闻观作为媒体工作者尤其是智媒体技术人员的岗前培训重要学习内容,增强传媒机构及其从业人员的党性观念、政治洞察力和鉴别力,提升从业人员的政治意识,从而在主流价值舆论引导中保持正确的方向。二是建立互联网媒体政策法规学习培训制度。将互联网媒体政策法规内容作为从业人员上岗的基本考核条件,组织从业人员认真学习网络安全法、信息网络传播权保护条例、互联网新闻信息服务单位内容管理从业人员管理办法、网络信息内容生态治理规定等内容,提升从业人员法律意识,增强纪律观念。三是引导受众提升媒介伦理意识。加强媒体从业人员审美情趣的培养,提升他们对智媒体传播各种信息的选择能力、理解能力、质疑能力和透过现象看本质的能力,降低陷入“信息茧房”的可能性。四是增强用户隐私保护意识。普及智媒体用户关于隐私保护信息的知识,引导用户在浏览有关智媒体平台信息时,要合理评估个人数据被采集获取的社会风险,提升算法素养,避免陷入“隐私陷阱”。

    五、结语

    事实上,“算法推荐”是媒介技术进步的标志,客观上满足了用户对信息的需求,实现了用户和信息的精准对接,带来了新闻生产格局的新变化。同时,“算法推荐”的普及和运用也增加了各媒体发展的压力,助推各媒体机构必须解放思想、创新思维,勇于突破。只有进一步提升新闻内容的生产质量,改变新闻信息内容供给用户的形式,才能在未来媒体竞争格局中占据有利优势和制高点。

    面对不断更新的媒体互联网新兴技术,我们必须理性对待算法技术,正确处理好互联网新兴技术发展与新闻内容传播伦理道德二者之间的关系,规范算法权力在传媒业的扩张,趋利避害,促进人机共生平衡,才能最大限度地消解智媒体中“算法推荐”伦理失范所产生的危害,从而更好地满足用户对信息的需求,为创造风清气正的良好网络舆论环境增添力量。

    (本文为2020年河南省哲学社会科学规划项目“智媒时代背景下网络舆论生态治理研究”的阶段性成果,项目编号:2020BXW007)

    参考文献:

    [1]陈昌凤,师文.智能算法运用于新闻策展的技术逻辑与伦理风险[J].新闻界,2019(1):20-26.

    [2]张帜.智媒时代对新闻生产中算法新闻伦理的思考[J].海南师范大学学报(人文社会科学版),2019(2):70.

    [3]杨保军,杜辉.智能新闻:伦理风险·伦理主体·伦理原则[J].西北师范大学学报(社会科学版),2019(1):27-36.

    [4]李鹏.新媒体概论[M].西安:陕西师范大学出版总社,2018:232.

    [5]王晓培,常江.新闻生产自动化伦理挑战:算法伦理分析的框架地图[J].中国出版,2019(4):20-25.

    [6]黄欣荣.大数据技术的伦理反思[J].新疆师范大学学报(哲学社会科学版),2015(3):46-53.

    [7]杨保军,杜辉.智能新闻:伦理风险·伦理主体·伦理原则[J].西北师范大学学报(社会科学版),2019(1):27-36.

    [8]张帜.智媒时代对新闻生产中算法新闻伦理的思考[J].2019(2):70-78.

    [9]马克思恩格斯选集:第3卷[M].北京:人民出版社,1995:442.

    [10]李娟,李卓.智媒时代信息伦理的困境与治理研究[J].情报科学,2019(12):118-133.

    [11]张涛甫.把好算法推荐“方向盘”[N].人民日报,2019-04-11.

    [12]赵双阁,岳梦怡.新闻的“量化转型”:算法推荐对媒介伦理的挑战与应对[J].当代传播,2018(4):52-56.

    [13]胡栓,童兵.牢记新闻初心使命坚持正确舆论导向:兼论新中国70年新闻舆论工作基本经验[J].新闻爱好者,2019(12):8-12.

    [罗新宇为南阳理工学院传媒学院、新媒体传播研究中心副教授,中国社会科学院大学(研究生院)博士生]

    编校:郑 艳