数字人权时代人脸识别技术应用的治理

    郭春镇

    摘 要:在数字人权时代,人脸识别技术的发展给我们的日常生活带来相当多的便利,但也给个人信息、隐私和财产带来风险,并且给人的尊严带来被贬损的可能。在兼顾产业发展的同时,我们应对人脸识别技术的应用持审慎态度。对该技术的应用带来的风险、其所涉的数据提供者、控制者、使用者和监管者等各方的利益,以及公共利益进行衡量。并在此基础上采取以下措施:首先,通过公权力机关的推动和公民自我认知的提升形塑“数字理性”主体。其次,立足现有规范体系和现实,将个人信息保护的“知情同意”架构进行柔韧化处理,建构合理的规范体系。最后,通过强化数据掌控者和监管者的责任、推动公众和专业人士的有效参与、建构兼容“知情同意”框架的制度体系等方式,形成基于责任和参与的多重治理机制。这些措施是保护个人信息安全的路径,也是实现数字人权的应有之义。

    关键词:人脸识别;个人信息;隐私; 数字人权

    中图分类号:DF920.0文献标志码:A

    引 言

    随着科技的进步和社会的发展,人脸识别在学术研究和技术发展方面都取得了重大进步。在学术方面,人脸识别的研究成果越来越多,其中很多成果已经走入人们的生活。②

    人脸识别的理论研究逐步深入,从传统的人脸特征提取并针对特征进行高性能的分类器设计,发展到通过卷积神经网络自动学习。在技术方面,通过使用局部二值模式(local binary pattern,简称LBP)的强度影像(intensity images)技术、视频训练的图像序列技术(video sequences)和3D特征提取的3D信息技术,人脸信息识别、提取技术越来越实用和高效。 人脸识别技术已经嵌入到人们生产生活的各个方面,在财务行为、工作场所监督、安全防控等领域得到普遍应用。

    相较于以往身份认证软件、传统生物特征识别(如指纹、虹膜识别等)等技术而言,人脸识别具有无需接触、符合人类识别习惯、交互性强、不易被盗取、高效迅速等诸多优势,且被认为在保障公共安全、信息安全和金融安全方面卓有成效且潜力巨大。但是,我们身处技术急剧进步而“国家治理体系和治理能力现代化”整体水平仍然不高、风险控制难度日趋增大的新时代,人脸识别技术固然可以提高某些方面的治理水平,可能会提高这些方面和领域的安全性,但其在风险社会中面临的潜在风险却有可能伴随着技术的发展,尤其是大数据技术的发展而进一步发酵,给个人信息、隐私权、信息安全、金融安全乃至公共安全带来巨大的威胁和隐患。因此,作为人工智能和大数据发展重大成果的人脸识别技术,应该被“认真对待”,在考虑扩充其使用范围以便利人们生活的同时,也应将之置于风险社会的背景和框架中进行审视,并对其在某些领域的应用持审慎态度。

    一、人脸信息的学理与规范意涵

    在日常生活中,要确定一个人的身份,往往需要书面材料、实物证据或其他证据证明,但是在验证这些证据材料的时候,大都需要通过校验人脸的方式确认是否为本人。从生活常识和直觉的角度来看,人脸是最重要的个人信息之一。然而,这种信息与我国民法、经济法、社会法、刑法、行政法乃至宪法等规范意义上的个人信息在何种程度上相关,则需要从法理层面进行观察和论证。

    (一)个人信息的规范沿革

    从法学的角度看,个人信息及与之具有家族相似性的概念在最近半个世纪才得以产生并日渐受到关注。這一概念在产生之初即与隐私具有密切的关联。在美国《隐私法》(The Privacy Act of 1974)中,个人信息被纳入“个人记录”(records maintained on individuals)名下,这里的“记录”是指“由专门机构保存的任何有关个人的信息的项目、集合或归类。其中包括但不限于其教育背景、财务往来记录、病史、犯罪或受雇记录,还包括其名字或特别分配给个人的识别号码、符号或其他识别特征,例如手指或声纹或照片”。从该法的名称也可看出,这里的个人信息或个人记录从属于隐私。对个人信息的保护,意在限制联邦机构,防范公权力对具有识别性的个人信息的滥用和传播以保护个人隐私。在此之后,经济合作与发展组织于1980年颁布《隐私保护与个人数据跨境流通指南》(以下简称《指南》)。《指南》把个人信息纳入到“个人数据”(personal data)这一术语名下,寄望在数据自动化处理技术迅速发展的背景下,既保护个人信息和隐私,又不过分影响国际数据流动。“个人信息”(personal information)这一法律概念源自于澳大利亚1988年发布的《隐私法》,该法将其定义为“可识别或理论上可识别身份的信息及观点”,且强调无论个人信息是否真实、是否以物质形式记录,均属于该法所规定的个人信息。此后,欧盟《个人数据处理保护与自由流动指令》、英国《数据保护法》、日韩《个人信息保护法》与新加坡《个人数据保护法》等均对个人数据、个人信息等概念作出法律界定。

    我国法律文件中有关个人信息规定的内容出现较晚。它最早出现在工信部于2011年12月颁布的《规范互联网信息服务市场秩序若干规定》(以下简称《规定》)。《规定》第11条强调未经用户同意,互联网信息服务提供者不得收集与用户相关、能够单独或者与其他信息结合识别用户的信息,并将这些信息称为“用户个人信息”。2013年4月发布的《最高人民法院、最高人民检察院、公安部关于依法惩处侵害公民个人信息犯罪活动的通知》(以下简称《通知》)首次对“公民个人信息”的内容作出规定,即“包括公民的姓名、年龄、有效证件号码、婚姻状况、工作单位、学历、履历、家庭住址、电话号码等能够识别公民个人身份或者涉及公民个人隐私的信息、数据资料”。2016年11月颁布的《网络安全法》首次对个人信息的概念作出法律规定,即“以电子或其他方式记录的能够单独或者与其他信息结合识别自然人个人身份的各种信息”。2017年通过的我国《民法典》第111条则明确规定“自然人的个人信息受法律保护。任何组织和个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。”时至今日,据不完全统计,我国大陆地区已经有3部民事法律、21部宪法和行政法领域法律、16部经济法和社会法领域法律、3部诉讼法、2个刑法修正案、11部行政法规和数十个国务院规范性文件和部门规章对个人信息予以规制。

    笔者以中国人大网的“中国法律法规信息库”为基础,结合北大法宝、威科先行等法律数据库,全文检索现行的法律、行政法规、部门规章等中有关个人信息保护的内容,通过在中国法律法规信息库中检索“个人信息”,共命中宪法性法律123部,行政法规及文件187部,但由于系统默认检索“个人”“信息”“个人信息”,经排查,规定“个人信息”及有关内容的法律有50多部,行政法规和部门规章数十部。

    (二)人脸信息的规范属性

    从生活常识来看,人脸是重要的个人信息。人脸附有与个人和身份相伴随的一系列标签和属性,并直接或间接地表达着属于这个人的权利与义务、权力与职责,甚至是性格与行为特征。从规范的角度来看,这些信息是否属于个人信息则有待于进一步确认。从前述所列的关于个人信息的规范看,它们均没有在个人信息的定义中直接列举人脸。这就需要基于相关条文对人脸识别及人脸的规范属性予以分析。前述的相关规范均将“可识别性”作为界定个人信息的核心要素。且在《通知》中,以列举的方式确定个人信息的外延,同时用“等”把其他能够识别公民个人身份或者涉及公民个人隐私的信息、数据资料进行概括式界定。相对于有效证件号码、电话号码和学历等信息,人脸无疑是更容易识别和确定个人身份的个人信息。在熟人社会里,一个人的年龄、身份证号或者家庭住址可能不为人知,但一看脸就能识别出其身份。在陌生人社会里,即便知道前述诸多信息,仍需要比照人脸,进行验证和确认。因此,从立法技术看,“等”中内在包含着人脸信息。从法律解释看,对“等”可以运用当然解释的方法,即“等”中当然包含着人脸信息。将这种理解和解释延伸到法律层面,则意味着《民法典》和其他相关法律法规、规章中的个人信息应当包括人脸。

    从我国法律对个人信息概念的界定来看,人脸信息属于个人生物识别信息范畴,是个人信息的重要组成部分。根据《网络安全法》第76条第5款的规定,个人信息包括但不限于“自然人的姓名、出生日期、身份证件号码、个人生物识别信息、住址、电话号码等”。生物识别信息是指与自然人的身体、生理或行为特征有关的基于特定技术处理产生的个人数据,这些数据可以确认该自然人的独特身份。生物识别信息一般分为两类,一类是基于人的身体或生理特征的信息,如虹膜信息、指纹信息、人脸信息、声音信息、体味信息等;另一类是基于行为的信息,如移动方式、手写签名、步态分析等。我国相关规定明确指出,个人生物识别信息包括“个人基因、指纹、声纹、掌纹、耳廓、虹膜、面部特征等”。这就在規范层面认可了人脸信息的生物识别信息属性,表明其应当受到个人信息保护立法的规制。

    受到法律规制的人脸信息包括参考模版和数字图像两部分。其中,参考模版根据个人图像制作而成,将人脸面部具有代表性的部位的相对位置和相对大小作为特征予以提取,再辅之以人脸轮廓的形象信息,把人脸图像转化成紧凑且可识别的特征向量,然后储存在后台数据库系统内供日后的识别和认证。而数字图像则是在视频或图像中用以比对的人脸形象。数字图像要成为个人信息,必须具备两个特征:一是必须蕴含个人清晰可见的脸。如果该数字图像包含的是远处或模糊的场景数据,则不大可能被视为个人信息。二是必须使该人能够被识别,这是数字图像得以成为个人信息的实质性要素。而参考模版因蕴含个人面部特征,能够与特定的个人相关联,因此也应当被视为个人信息。可见,在对人脸识别规制的过程中,不仅需要对数字图像的采集、比对、储存等环节予以针对性调整,还需要对储存在自动识别系统中的参考模板予以规制。

    (三)人脸信息与隐私交叠

    在进行人脸识别时,将所采集到的人脸图像与后台数据库中的样本模版进行比对,不仅能对特定个体进行识别,而且在某些情况下能够进一步追踪到个体的活动轨迹、人际关系、财产状况等隐秘性信息,使个人隐私暴露于他人的视野中。人脸信息是重要的个人信息,但能否将人脸信息置于隐私的保护之下,需要从学理和规范层面思考个人信息与隐私权的关系。

    有关个人信息和隐私权之间的学理关系,大致有三类观点,分别是隐私权包含说、个人信息包含说与交叠关系说。隐私权包含说认为,隐私权具有消极和积极两个面向,前者意指传统意义上私生活不被打扰的独处甚至“遗世而独立”的权利,后者则是信息社会中对自身信息的自我决定权。隐私权主体不仅有权不被干扰,而且可以通过“有所为”的方式决定和使用个人信息。此时,个人信息是隐私的内在组成部分,保护个人信息的目的就是捍卫隐私权。个人信息包含说认为个人信息包含隐私。该学说认为,我国法律确认个人信息具有识别性,个人隐私由于也具有识别性,因此应内涵地被纳入个人信息之中。交叠关系说认为个人信息和隐私之间既有联系也有区别,两者在权利主体和客体方面有相同或相似性,但在属性和保护方式等方面存在差异。也有学者认为隐私权主要涉及不同的民事主体之间的利益衡量问题,而个人信息不仅涉及到民事主体之间的关系,还涉及到国家利益,需要在权利主体、信息从业者和国家之间寻找新的平衡。还有学者认为传统的隐私权保护模式所能保护的个人信息仅仅是一小部分,有更多需要被保护的个人信息在当前背景下无法得到这一模式的有效保护。个人信息保护的现实需求,需要超越现有的隐私权保护模式。

    从规范与学理角度看,包括人脸信息在内的个人信息与隐私权之间存在交叠关系。从我国《民法典》第110条和第111条的规定来看,至少在私主体之间,个人信息和隐私权是相关联又有所区别的术语。

    我国 《民法典》第110条规定“自然人享有生命权、身体权、健康权、姓名权、肖像权、名誉权、荣誉权、隐私权、婚姻自主权等权利”;第111条规定“自然人的个人信息受法律保护。任何组织和个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息”。从两者在《民法典》中的位置来看,它们前后相互衔接,都处于第五章“民事权利”之中,且其后的诸条均规定各种具体权利及其救济问题。然而,在权利林立的第五章中,个人信息仍没有被表述为“个人信息权”,其自身到底是一项权利还是一种利益,则有待于进一步思考和确认。因此,从规范角度看,个人信息和隐私确实不同且有密切的相关性。从学理来看,虽然个人信息与隐私权的关系存在三种迥异的观点,但个人信息和隐私权的语义“射程”存在较多的交错地带,仅凭其中的任何一个,均无法涵盖对另一内容的保护和保障。可见,两者处于一种复杂的交叠关系。人脸信息作为个人信息的重要构成部分,其与隐私权亦处于交叠关系中。因而,对人脸信息的收集和使用既有可能侵害到公民的隐私权,也有可能侵害到公民的个人信息。

    二、 “数字人权”时代人脸信息的风险

    (一)新时代是“数字人权”时代

    新时代是一个“数字人权”

    张文显:《“数字人权”这个概念有着坚实的法理基础、现实需要和重大意义——“无数字 不人权”》,载日益彰显的时代。“数字人权”是一个崭新的术语,是在兼容大数据时代特征的基础上所孕育并诞生的新兴人权,它有着积极和消极双重面向。数字人权的积极面向意味着国家对数字人权的推进和实现应有所作为。在人们几乎无法回避和逃逸出网络化生存的背景下,互联网如同交通、电力、自来水等一样,成为一项公众必不可少的基础设施。因此,数字人权要求国家要有所作为,国家有义务和责任建设好互联网基础设施,做好所涉的硬件和软件工程建设工作,以及提供基于这些软硬件而延伸和发展起来的各项“互联网+”公共服务。

    数字人权的消极面向意味着人们在大数据时代“独处的权利”。在每个网民都接入互联网并拓展自己的生活空间的时候,人们仍有不被审视和窥探的权利、自己的身份在无关国家和社会安全的情况下不被识别的权利、自己的生活方式不被干预的权利以及自己的人格利益不被侵犯的权利,并在此基础上,在不侵犯国家、社会和他人利益的前提下,提升做自己想做事情的能力。

    人脸信息是数字人权所关切的重要内容,它所面临的风险需要我们审慎对待。人脸识别技术是随着网络化生存而产生的技术,数字人权的积极面向促成了它的产生和越来越普遍的应用。同时,人脸是重要的个人信息,对人脸信息进行采集和应用的行动,关涉数字人权的保护、保障和实现,这在数字人权的消极面向体现得更为明显。新时代是一个与风险社会在时空上交错的时代,在对自然或社会的控制日趋完美的愿望下,风险社会的这种风险被掌握相关知识和话语权的专业人士界定和建构。

    参见[德]乌尔里希·贝克:《风险社会》,何博闻译,译林出版社2004年版,第20页。然而,他们在制造这些风险后,又将风险移转到社会民众、特定或不特定群体身上,使得这一风险被全社会或某些群体分担,最终导致在这些群体的利益或权利被侵害之后,难以甚至根本无法找到承担法律甚至道义责任的主体。因此,在数字化的风险社会中,人脸信息面临着巨大的风险。

    (二)人脸信息所面临的隐私威胁和财产风险

    在不同的文化和社会传统中,人脸之于人都有特殊的意义。在风险社会中,人脸信息被广泛收集并形成大数据之后,可能會对个人隐私、个人安全、社会与国家安全带来风险和威胁。这种风险和威胁可能贯穿于人脸信息大数据形成与应用的始终。

    一方面,对人脸信息的收集可能会侵犯个人隐私。人脸不是隐私的直接载体,但它是重要的个人信息,与隐私有密切的关联。从隐私的定义来看,无论是把隐私界定为“不愿告人或不愿公开的个人的私事”,还是对抗公权力搜查和逮捕意义上的权利,抑或“半宪法性”的且与言论自由相关的自由,人脸都难称得上是隐私。否则在日常生活中的每一天,每个人都面带隐私出行,人们一露面就相当于隐私被主动泄露。虽然人脸自身并不是隐私,但人脸本身无疑携带着重要的个人信息。若将“可识别性”作为个人信息及其保护的标准的话,人脸甚至是最具有代表性的个人信息。如果按照传统的立场和观点,把隐私界定为包括私人信息、私人活动和私人空间在内的个人私生活秘密,那么即便人脸自身不属于个人隐私,但其所携带的个人信息和它所出现的时间、空间等信息结合在一起,却可能构成隐私。在面对真实世界中的问题时,我们需要一副“思想的眼镜”,以敏锐的洞察力去发现我们周围世界复杂现象背后的真相。大数据的处理方式类似于向数据处理者提供一副特殊的眼镜,使其可以发现零碎纷乱的个人信息背后某个人真实的面貌乃至思想,对某个个体形成全方位洞察。由此,大数据技术创造了一个穿越信息迷雾、全面掌控个人信息的“大数据眼镜”。

    另一方面,对人脸信息的收集和应用有可能会给个人的人身财产安全带来不可预测的风险,甚至威胁到公共利益和国家安全。对于生活中纷繁复杂和支离破碎的信息,有哲学家敏锐地洞察到:“有些人听到的只是噪音,而有些人却从中听出了旋律”。个人信息似乎也是如此。碎片化的个人信息相当于噪音,但“有心人”通过技术手段整合个人信息,就像把噪音中的音律排列组合后形成旋律。那些生活中以分散乃至散乱的形式置于各个不同摄像头下的人脸,对某个单独看到这张人脸的人来说可能只是一张普通的、与自己无关的人脸,就像无意中听到的某个或某段无意义的噪音。但在经过大数据整合之后,这些“噪音”有可能变成“旋律”,通过挖掘,可以从中得到很多个体不想为人所知的信息、秘密和隐私,甚至是事关社会稳定和国家安全的重要信息。对于个人来说,很多银行或网络金融产品的支付行为,小区门禁乃至私宅房门的开启,都会应用到人脸识别技术,而这些人脸信息被人脸识别设备生产商、小区物业机构获取后,难以保证其不被泄露而致滥用。同时,这些机构的网络安全设施、相关人员的网络安全意识和技术等也难以保障人脸信息长期处于安全状态,人脸信息一旦被非相关主体收集使用后,可能会给个人带来不可预测的风险。如果人脸信息过多地被收集,对社会秩序和国家安全都可能会带来消极影响。

    比如,通过大数据获得某个或某些安保人员的人脸活动信息及其运动轨迹,有可能会做出近期是否有重大安保事项的推测。如果这些信息被恐怖分子获取,可能会对公共安全和国家安全带来重大风险。

    当然,这里的风险只是意味着隐私或财产受侵害的可能性,并不意味着它一定会发生。运用人脸识别技术的企业或机构也在采取部分措施预防风险。

    企业采取的人脸识别风险预防措施主要有两大类,第一类是二维识别,要求被识别人通过网络或应用程序提供身份证进行人脸对比,其中部分服务提供者在对比后再与权威数据源(通常是经过应用程序编程接口与公安部门的数据)进行核验;第二类则除了前述要求之外,还要求在权威数据源校验之前进行活体检测,通过眨眼、张嘴等来确认是否为“真人”,以排除作弊行为,具体参见谭红春等:《一种高效的人脸三维点云超分辨率融合技术》,载《光学技术》2016年第6期,第501-505页。在实践中,已有在人脸识别中通过活体检测发现欺骗行为的案例,如某网贷APP中通过人脸识别活体检测发现欺诈事实,并因此发现冒充检测者的犯罪行为。与此同时,破解人脸识别的研究一直在进行,且诸多进展也让人们对人脸识别技术的安全性保持足够慎重的态度。有研究成果表明,通过对抗性贴纸,可以在49.6%的时间里骗过人脸识别镜头。

    而来自莫斯科国立大学和华为莫斯科研究院的科学家们研发出一种特殊纹路的纸,可以在纸上生成对抗攻击图像,让其显示为三维立体图像,进而可以干扰和欺骗人工智能,将这张纸贴在头上,人脸识别系统就无法识别当事人真正的图像。即便是活体测试,也已产生通过3D人脸建模进行破解的思路和方法。这些都充分表明:种种人脸识别欺骗性技术和手段在不断挑战包括企业、社会组织乃至国家的认证能力,人脸识别技术在应用过程中存在相当大的风险。

    (三)人脸信息面临的尊严贬损风险

    有时候对人脸信息的收集,并不直接侵犯个人的隐私,却有可能直接侵犯人的尊严,贬损这一人们享有的所有权利的价值核心。人的尊严是人类所珍视和追求的价值,人们不仅因在意自身的安全而进行自我保护,因关注自己物质生活条件的提高而追求财富,也对“自身价值有本能的和微妙的感觉,对这一点的贬损不亚于对身体和财物的损害”,甚至在很多情况下人们对这一价值的追求超越了生命和财产,这才有了“视不义富贵若浮云”和“舍生取义”之类的行为。因此,“在人这个名义中,有某种被感受到的尊严存在”。人的尊严这一核心价值已经在世界范围内得到普遍尊重和肯定,并体现在诸多法律规范中。

    如《德国基本法》第1条明确规定“人的尊严不可侵犯,尊重和保护人的尊严是全部国家权力的义务”,日本《宪法》第24条明确规定婚姻和家庭有关事项的法律必须以人的尊严与两性平等为基础。此外,《联合国宪章》《世界人权宣言》《公民权利与政治权利国际公约》《欧盟基本权利宪章》等国际条约也明确保护人的尊严。我国在私法和公法层面同样作出此类规定。

    如《中华人民共和国民法典》第109条规定:“自然人的人身自由、人格尊严受法律保护”。《中华人民共和国宪法》第33条第3款规定:“国家尊重和保障人权”,虽然我国宪法没有在该条文中直接明确表述人的尊严,但公法学的通说认为,人权的核心即是人的尊严。人脸识别技术的迅速发展,不断拓展其被适用的空间与范围,并在这一过程中迅速降低设备运行和使用成本。

    在2018年上半年,笔者曾率队参观某一以网络安全为核心业务的上市公司并与其法务和技术人员座谈,

    该公司的相关人员在展示了自己技术的同时,还对人脸识别技术的准确性及其适用的便捷性与范围做出了较为稳健保守的陈述。但一年以后,笔者所在的事业单位就以适宜的价格安装上了人脸识别系统。随着成本的降低,人脸识别设备的销量会增加,可能会在更大的范围内被应用。在享受人脸识别这一先进技术带来的便利的同时,我们也面临着一些基础性法律价值可能被侵蚀的难题。在某些情况下,人脸识别的应用直接关涉到人的尊严问题。

    “脸”在社会文化中的意义和功能,使其内在蕴含着人的尊严。相对于其他种类的个人信息,我们要注意到“脸”自身的文化属性及其对个人的心理影响。打卡、指纹签到(此时我们暂且不考虑指纹中的个人信息保护问题)、刷脸签到都是一种签到方式,但无疑刷脸签到更容易在心理上产生被冒犯的感觉。脸在中国文化图景中具有特殊的意涵,它不仅是一个人五官的排列和集成,而且带有丰富的社会文化功能,具有明显的规范性和辐射性,与“一定的社会情境中表现出的一系列规格性的行为”密切相关,包含着“经过印象整饰后表现出来的认同性的心理和行为”。脸在世界各个文化体系中也都承载着深刻的社会意义,人脸不仅意味着一个人类的器官,更映射出某种情感、性格和人格。“脸”不仅仅是生理意义上的“脸”,还是一种心理意义上的“脸”,它蕴含着一些可用于判断主体情感、观点、态度的非语言信息。它还与“尊敬”在抽象的认知层面相关联,意味着个人、家庭等从别人那里得到的尊敬。

    因此,“脸”不仅是身体的一部分,它还代表甚至等同于包括精神在内的整个人,并与一种稳定人格形成链接关系,以或显或隐的方式表征着人格。

    在生活实践中,很多人脸识别设备的安装,并未得到当事人的知情同意,其中既包括由于当事人认知能力不足或信息不对称而没有在真正意义上知情,也包括知情之后未能发自内心作出同意或反对。具体而言,有以下几种方式:第一,有的人并不知道人脸识别对个体而言意味着什么,仅仅是觉得“刷一下脸而已,自己又没少什么东西”;第二,有的人不知道被“刷脸”之后自己的信息存储是否安全,更不知道自己的人脸信息今后将被什么机构用于何种用途,这些用途是否有害于自己的经济利益和人格尊严;第三,有的人知道或能预感到,被“刷脸”之后可能会产生对自己不利的后果,或者对后果并不了解但认为“刷脸”本身就是一种对自己的冒犯,只是由于自己是某个单位的员工或社区成员,不好意思反对或担心反对会让自己被所在群体疏离;第四,當事人知道人脸识别的可能风险并反对,但是迫于直接的压力,诸如失去工作或受到减薪、降低待遇乃至暴力威胁的不利后果,而不得不接受人脸识别。无论是哪一种情况,这都是对知情同意原则的违反,更是对当事人自由意志和人格尊严的侵犯。

    或许有人会认为,没有经过知情同意而进行刷脸是对人的尊严的冒犯,那么知情同意后的刷脸就不冒犯人的尊严了。这种观点强调意思自治的重要性,认为基于知情的同意体现当事人通过自己的真实意思为自己设定权利义务,使得个人信息被使用或被刷脸的行为具有正当性基础。然而,这种认知可能忽略了“真实意思”中的“真实”一词。首先,人们可能只是“知道”,而非真正意义上知情。囿于人们对信息的理解能力和自己对事物的判断力,以及外部环境的影响,很多时候人们可能知道与自己相关某事的存在,却不知道这个事件与自己真切的利害关系,因此有可能在缺乏理解或考量的情况下就“同意”。其次,即便真正“知情”,也可能不得不“同意”。这种同意,在形式意义上符合现行法律法规的要求,但未必真正体现其自由意志,因而也难称得上是真正的同意。有时候,人们受制于强制力(coerce)而不得不同意,就像某些强买强卖在形式上合法一样。有时候人们可能并不面临直接或间接的武力威胁,而且清楚地知道自己的同意会带来什么样的后果,只是迫于形势与现实而不得不同意,就像一个亟需养活家人的劳动者不得不签订一个内容对其非常苛刻且待遇微薄的劳动合同那样。此时,他可能知道自己的最大利益所在,但受制于现实而被迫(compelled)同意。可以想见,在面临就业或与之类似的压力时,一个人很难拒绝刷脸签到、刷脸领工资等制度安排。

    “脸”作为个人社会身份的象征,是人际交往和构建信任的通行证。但在刷脸时代,人脸被摄像头等设备自动抓取后生成数字图像以识别、认证或核实特定个体,成为识别与被识别的工具。由此,未经当事人真正知情同意的的“刷脸”行为成为一种权力与服从行为——不管这种权力是国家权力还是社会权力。人脸背后的人格因素及其所承载的信任与尊严等价值被稀释,被技术俘获并遮蔽。计算机技术和新型的测量手段,成功地将一个具有独立人格的人,变成一系列的数字和符码,将活生生的人转化为一行行数据。此时,识别的是人脸,得到的是数据,失去的或被贬损的则是人的主体性及其尊严。

    三、人脸识别技术应用中的利益衡量

    由于人脸识别技术在应用时涉及到重要的个人信息,且直接影响到数字人权的实现,因此应审慎适用。慎用首先意味着要“用”,要以积极的态度面对科技的进步,使其有利于国家治理体系和治理能力的现代化,有利于满足人们的美好生活需要。慎用强调要慎重地面对,尤其是在充满新风险的现代社会,既不能让技术自身不受任何限制地发展,也不能让应用该技术的产业“野蛮生长”。因为被“野蛮生长”的产业所挟裹的人脸信息,一旦流失或被滥用,就难以得到有效救济,更难于完全恢复原态。如果说手机号码、家庭住址甚至姓名都可以更换,进而避免使个人的利益和权利受到更大的侵害,那么由于人脸不能更换,人脸信息流失或被滥用的侵害则可能是长期甚至永久性的,其补救的难度也会呈指数级上升。因此,在应用人脸识别技术时需要科学、严肃的评估,对信息所有人、企业、政府等不同主体的风险、成本和收益等进行衡量。

    (一)人脸识别技术应用进行利益衡量的必要性

    利益衡量这一术语往往用于司法中。但在对某些行为进行规制时,也可以通过立法的形式对不同主体的相关风险、成本和收益进行衡量从而制定出更为合理的规则。对人脸识别技术应用进行治理时,可以在利益衡量的基础上制定相应的规则,以实现不同主体间权利和义务的均衡。

    在风险社会,需要对新技术带来的风险与收益进行衡量。新技术和与其相伴而生的制度所带来的风险是一种“人造风险”,它们有可能会超越自然风险而成为风险社会的主要内容。有些技术和制度安排,其初衷是为了让我们的生活更加有确定性和可预测性。在其运行初期也确实达到其预期目的,但最终却可能带来与初衷相反的结果。相对于那种传统或自然的不变性和固定性所带来的外部风险,这种与科技发展和知识进步相伴而生的风险是一种被制造出来的风险。

    且过去的生活经验、技术手段和组织制度,已不足以使我们防止、规避和应对新的社会风险的威胁。人脸识别技术应用所带来的就是这样一种风险。它可以提供便利的支付方式、比以往更可靠的身份识别、更有序的交通秩序和更安全的社会环境,能全方位、整体性地提升我们的生活品质。同时,它所带来的风险也同样体现在前述领域中。这些风险对人们生活的影响难以预料,有时可能非常巨大,以至于连乐于收集个人信息并从中获取巨大收益的微软公司,都要求加大对生物识别隐私的监管力度以应对或避免此类风险。因此,我们在对人脸识别技术进行评估时,必须置身于风险社会及其相伴而生的“人造风险”的语境中,衡量不同主体在人脸识别应用中所面临的风险和收益,合理分配相关主体之间的权利和义务。

    (二)人脸识别应用中利益衡量的内容

    在评估一项人脸识别技术的应用时,应对其成本和收益进行评估并对所涉各方的成本和收益进行合理的分配。笔者无意在本文中给出评估的指标及其体系,因为这是一个极其复杂的工作,需要一个强有力的团队通过长时间的努力才有可能完成此项任务。如果我们认同法律的本质是某种“计划”,那么在评估时至少应考虑如下因素:主体、成本、风险、收益,并考虑如何在不同主体间公平分担成本、风险和收益。此外,在讨论理性行为和制度约束两者的关系时,不能忽略社会生活中固有的政治社会因素。如不同国家受历史文化和社会制度的影响和约束,其人民对不同种类的价值有不同的偏好。

    1. 关于不同主体的衡量

    人脸识别技术应用的风险收益评估应该考量信息收集者、信息被收集者这两大类主体,以及代表公共利益的社会和国家。信息收集者既包括应用这一技术的个人、企业、政府等主体,也包括开发这一应用技术的企业。这些主体能够在销售技术和服务之后获取源自前述主体的人脸信息。信息被收集者是个人,不仅包括在单位被要求进行人臉识别的员工,也包括在机场、地铁站、汽车站等场所的旅客,还包括在商场购物的顾客、在公共服务机关办理事务的行政相对人、在医院就诊的患者乃至街头的行人等。当然,这些人之间也可能存在着身份的交叠。

    2. 风险与成本的衡量

    需要强调的是,成本和风险是一体的,除了现实的支出或损失外,风险的大小及其发生的概率也是确定成本的方式,甚至仅仅风险自身也构成一项重要的成本。当然,这种成本既包括具体的物质财富的损失,也包括权利丧失所带来的情感与精神损害,以及由此而来的对人的尊严的贬损。相应地,收益也有客观和主观的方面。如果把物质财富视为一种客观利益的话,那么情感和精神方面的利益可以被称为主观利益。主观利益具有主观性和难以认定的特点。不同的生活空间、生活方式乃至个体的生活经历,都可能影响到对这种利益的感觉和判断。比如,农村和城市的人们、违法犯罪行为的加害人和受害人,可能对牵涉隐私、表达、“面子”等内容的行为会有不同的利益感知,对于刷脸是否侵害及多大程度上侵害自己的主观利益也有不同的感受。此外,主观利益与客观利益如何衡量在技术上也存在着需要进一步研究的空间。比如,当人们面对不公平的分配方案时,前脑岛和背外侧前额叶皮质被显著激活。而前脑岛负责的是情绪加工,与厌恶和愤怒的情绪相关,背外侧前额叶皮质则负责认知系统对情绪的抑制控制。这说明此时人们对于公平和公平感这种主观利益的追求超越了经济利益。即便主客观利益在当前背景下尚无有效的通约计算与衡量的方法与机制,但至少在评估时应考虑这两方面的因素。

    关于主客观利益通约的问题,也有学者进行了初步的探讨。对于尚未造成损害或难以预测损害程度的风险,已经有现实的案例对其进行规制,以保护风险主体的权利和利益。比如,2008年美国伊利诺伊州颁布《生物识别信息隐私法案》(Biometric Information Privacy Act,即BIPA),该法案规定了数据的收集、存储和处理规则,这些数据包括对视网膜或虹膜扫描、指纹、声纹、手或脸几何扫描产生的数据,也包括来自公众的其他生物信息或生物识别数据。消费者可以因其信息被不当存储或使用,或未经授权被披露而起诉侵权行为人,而不管是否造成實质性的损害,这在2019年1月25日伊利诺伊州最高法院“Rosenbach v. Six Flags Entertainment Corp”一案的判决中得到充分体现。

    Six Flags游乐园把采集原告儿子的指纹作为其购买主题公园季票的一部分,原告认为自己及其儿子均未被告知其指纹收集的具体目的和保留期限,且他们都没有签署任何关于取指纹的书面通知,也没有同意收集或使用该生物识别数据。虽然原告没有说他的儿子受到任何实际伤害,但仍主张游乐园的行为违反了BIPA的要求,寻求金钱赔偿和禁令救济。具体参见Rosenbach v. Six Flags Entertainment Corp. 2019 IL 123186.

    3. 公共秩序与安全的衡量

    此外,还有一部分收益体现为公共秩序和公共安全。这种公共产品的收益尽管难以定价,但至少在制定公共政策的时候应予以考量。公共秩序和公共安全包括线上线下两个领域。线上领域是指网络安全。按照我国《网络安全法》第76条第2款规定“网络安全,是指通过采取必要措施,防范对网络的攻击、侵入、干扰、破坏和非法使用以及意外事故,使网络处于稳定可靠运行的状态,以及保障网络数据的完整性、保密性、可用性的能力。”这意味着网络安全涉及网络产品和服务安全、网络运行安全、网络数据安全、网络信息安全等主要方面。网络安全既是国家也是公民所需要的基本公共物品。因为,“公民希望他们的政府能使他们免于网络上的彼此伤害、防范来自国外的损害。公司需要能保障网络的稳定性、令互联网商务繁荣发展的法律环境”

    。线下领域是指互联网之外的真实生活中的安全,它包括良好的治安、安全的交通、有序的社会生活和可预期的行为模式与结果。这部分收益虽然不是针对特定的个体,但为所有社会主体所享有。它既能使得每个个体现实的安全得到保护,又为其长远的发展提供保障,因而是不可或缺的公共利益。

    四、人脸识别技术应用的治理路径

    2019年6月,我国工业和信息化部正式向中国电信、中国移动、中国联通、中国广电发放5G商用牌照。这意味着我国将正式进入5G商用元年。随着我们和5G时代的距离拉近,万物互联给新技术、新应用、新业务的产生和发展带来无限可能性,人脸识别技术的应用范围、方式、方法等也存在着各种可能。但愈是如此,我们就愈要注意人脸识别所带来的风险。在推动新技术应用和新产业发展的同时,尊重和保护人的尊严,从而确保数字人权在新时代的实现。

    (一) 形塑具有“数字理性”的主体

    人的理性是一个复杂的学术论题。在当前信息流动极为迅速的大数据时代,在包括人在内的万物都是数据链上一环的背景下,我们需要重新认识人的理性,对人的理解需要从关注个体(以及由个体组成的群体)转向关注“关系”,关注互动和流动性,而这种互动和流动性还应当“有温度、有气息、有情感”。因此,“我们不能再仅仅把自己当作谨慎决策的个体,必须要考虑那些影响个人决策,驱动经济泡沫、政治革命和互联网经济的动态社会效应”。在万物互联的时代语境下,我们应当从关注独立个体的经济理性或社会理性,转向关注人与人之间交换性或互依性的关系理性。这种理性,可以称为“数字理性”。“数字理性”的养成,既需要人们自身不断的学习与更新,也需要公权力机构和国家的有所作为。

    1.“数字理性”主体的自我修养

    主体首先应有互联网思维。这意味着主体在互动过程中基于关系理性看待个人和网络上的商品与服务提供者之间的关系、个人信息使用和产业发展之间的关系,理解自己为享受的服务所面临的成本和风险,了解自己和相关主体的基本的权利义务。从互联网初创至今,无论是在包括自媒体在内各种传媒所宣传的广告中,还是在个人使用互联网的实践中,“免费”和“分享”都是一种共识性的判断,好像人们没有付钱购买就能免费使用某些网站、软件和App。实际上,只要与互联网上此类服务商产生连接,虚拟或实体生产就发生了。各种平台企业“通过各种方式搜集到更多的数据,通过精妙的算法预测和塑造经济消费习惯,提供精准的个性化服务,控制交易和生产渠道,捕获更多的消费者剩余和生产者剩余。”

    因此,“数字理性”主体不应把享受服务视为无成本消费或搭便车,而应该理解为提供包括人脸识别在内的个人信息是支付这些服务的对价,而这种对价不仅提供了互联网企业所需要的生产力,为互联网产业的发展提供直接动力,还给自己未来的生活带来各种潜在的风险。他还应该意识到,在享受看似免费的互联网服务的时候,要明了自己、服务商各自的权利和义务,在真正知情同意的基础上使用网络服务,而不是完全忽略知情同意书或由于其过于复杂而无视它。此外,他还应基于法律和公序良俗在互联网上进行活动,同时知晓网络主管部门和相关机关具有治理互联网的权力和职责,其中包括为避免个人信息被滥用而进行有效监管的职权。

    “数字理性”主体还应不断提高其理性社会认知能力,消除认知偏差。提高理性社会认知能力是一个不断学习和习得的过程。就像焦虑、无助等负面情感和认知可以习得一样,乐观和理性也可以通过习得而成为个体对社会进行认知的能力,在这个基础上,甚至产生了“积极心理学”这样的学科且此类研究得到高度的社会评价。

    如积极心理学的创始人Seligman获得2006 年美国心理学会(APA)颁发的杰出科学贡献奖。同样,就像人们可以选择以悲观或乐观的态度对待世界一样,人们也可以选择以理性的态度对待社会问题和社会现象,消除认知偏差,理性对待人脸识别带来的积极与消极影响。能够从诸如徐玉玉案这样的案件中认识到保护本人信息的重要性,也能够从诸多对泄露个人信息的网络平台和个人进行追责的案件中,认识到自我保护和国家采取措施保护个人信息的必要性,从而避免夸大其中的某一面并产生认知偏差。这样他就可以既不沉迷于网络所带来的便利和效率,也能谨慎持重地评估其带来的隐私风险、安全风险和金融风险。

    2. 公权力机构对“数字理性”的推动

    理性社会认知能力的提高,不仅仅来自公民自我素养的习得与提升,更需要公权力机构通过温情与冷峻的行动与制度安排有所为和有所不为。首先,公权力机构应该以负责的态度对待包括人脸在内的个人信息,这既包括对收集到的信息要采取严密的安防措施以免泄露,也包括让公众知晓收集、应用此类信息的风险;不能只宣传人脸识别或安装设备对于公共安全和管理的便利,有意无意忽视公开相关信息,使得公众无法得知、了解和理解这些措施对自身所产生的潜在风险与消極影响。其次,国家应该更有效地实施法律法规,消减公众对个人信息泄露的不安全感。通过对网络诈骗、电话诈骗有力打击,对网络平台和其他握有个人信息的公权力机关和企事业单位进行有效监管,让人们真正享有免于个人信息泄露之恐惧的自由。再次,做好舆情引领、心理干预工作,合理引导并优化社会认知。当人们持续或长期暴露于某种刺激下,会对这种刺激产生反应钝化现象,并导致认知、情绪和行为的长期变化,甚至形成具有某种负面特征的人格。基于这种人格和行为模式,从负面阅历的积累中获得的“潜意识知识储备”可能会“自然”形成某些负面直觉反应。因此,公权力机构应做好舆情引导工作,避免公众对某种负面行为的脱敏。就刷脸或个人信息而言,就是要避免形成“被侵权脱敏”,避免让人们形成被侵权而不救济的内隐性社会认知。

    (二)建构合理的规范体系

    对于个人信息保护,我国已经有多部相关法律、法规、规章和司法解释以直接或间接的方式予以规定。如我国《宪法》第33条和第38条、《中华人民共和国民法典》第111条、《中华人民共和国消费者权益保护法》第14条和第29条、《中华人民共和国电子商务法》第23条等。由此形成从宪法行政法到民法经济法和社会法乃至刑法的一整套个人信息保护规范体系。

    在民事立法方面,我国有关个人信息保护的主要有《民法典》《电子商务法》《消费者权益保护法》;在宪法行政法领域,主要有《宪法》《公务员法》《网络安全法》《公共图书馆法》《反恐怖主义法》等法律;在经济法领域,主要有《广告法》《旅游法》《统计法》等法律;在社会法领域主要有《未成年人保护法》《反家庭暴力法》《慈善法》等,此外在刑法领域还有刑法修正案(九)等,这些法律共同构成我国的个人信息保护体系。在人脸识别规制上,除《国务院办公厅关于压缩不动产登记办理时间的通知》以规范性文件的方式直接提倡人脸识别完成身份认证外,还有43部部门规章对人脸识别进行规范,这些规章的内容主要分为两大类,即运用人脸识别技术实现身份认证和明确人脸识别的技术或图像标准,其中更多的规范重在推行对人脸识别技术的应用。此外,还有至少近百部地方性法规、规章和规范性文件涉及对人脸识别的治理。

    笔者以北大法宝为基础,以“人脸识别”为关键词全文检索,共命中379部地方法规规章,其中福建省38部,广东省25部,北京市20部,上海市18部。值得注意的是,位阶越低的规范越关注人脸识别技术的应用,反而在法律层级的文本更能体现出对包括人脸识别在内的个人信息的尊重和保护。这或许是因为越是在地方层面和部门层面,越注重公众直接关切的现实利益,以及自己所辖地区和部门的业绩。

    如地方政府运用人脸识别技术来保障公共安全和提高行政机关的效率,减少行政机关的工作量。比如,在公租房中运用人脸识别等技术和门禁措施以实现非承租人员不得随意出入、对流浪乞讨人员人脸识别以便于寻找其家人、对医疗人员和患者进行人脸识别以打击欺诈骗取医保基金,等等。

    总的来看,现行关于个人信息保护的规范整体呈现出形式上散乱不统一、内容上价值定位游离不定的特点。这就需要制定一部个人信息保护法。该法律应该在立法理念和原则方面体现出对公民利益和权利的尊重、保护和保障,对公共利益的强化和推进,以及对新兴产业发展的重视和引领。同时,能与现行宪法和法律相互协调,保持法律体系的融贯性。有了这样一部法律才能纲举目张,让关于个人信息的低位阶规范在正确的价值和方向引导下,通过更具体的实施规范使前述利益和权利等价值得以实现。

    未来的个人信息保护法应当以知情同意作为基本架构。相对于“场景理论”注重场景和信息流动性“社会控制”强调个人信息的社会属性等模式,知情同意模式似乎显得较为“传统”,它在理论方面看起来似乎也不如那些模式显得更具有“大数据”特色。但是,从理论的接受度与可操作性而言,知情同意模式似乎更具竞争力。首先,知情同意模式及其理论基础在社会认知方面更具有可接受性。知情同意模式的理论基础在于对人的尊严的尊重和保护,它强调个人的理性,尊重个人的自治和自决并将此视为人的尊严的核心内容。这一模式强调人的理性,预设人们知道自己的最大利益所在且能够自主地去追求,这与近代民法对人的认知一致并符合法学的基本立场。其次,在制度方面更具有可操作性并与既有的制度体系有更高的契合度。“场景理论”和“社会控制”模式具有理论说服力和适应社会需求的优势。但从操作层面来看,“社会控制”模式提供的方案更偏重于理念和原则。“场景理论”虽然在美国奥巴马任总统时形成了《消费者隐私保护法(草案)》,但并没有最终形成法律,它的实效并没有得到现实的检验。而且即便能够产生积极效果,也要考虑该法所依存的美国判例法制度体系对其产生的影响,而这一制度体系是我国所不具有的。再次,知情同意模式是个人信息保护的核心和基础,是信息主体意思自治的体现。虽然知情同意框架在学理上存在诸多可争议之处,但“不完美的自主总比没有机会自主好,认为用户行使不好权利就不赋予其权利的逻辑显然存在严重问题”。未来个人信息保护立法应当在坚持知情同意框架的同时提升其兼容性,吸纳对个人信息保护的一些新理念,力求兼容“场景理论”和“社会控制”,从而为与其相应的制度安排都留下空间,形成一个有整合性的基本法律架构,同时又有实施细则和不同层级具体实施规范的多重治理机制,那么我们就有更大的可能性对个人信息保护问题进行有效治理。

    (三)基于责任和参与的多重治理机制

    对于包括人脸在内的个人信息的使用和保护,应形成多重治理机制,强化数据监管者、掌控者和使用者的责任,并通过这种机制分配数据提供者、控制者和监管者之间的利益、权利和责任。这种机制立足于现有的制度框架,通过多主体参与和互动形成公意,形成具有实际操作性的实施方式,实现个人信息使用的产业化和数字人权保护的目的和功能。

    1. 数据监管者和掌控者的责任

    这种机制强调监管者和数据掌控者的责任。这是因为,从成本控制的角度来看,让所有参与数据生产的用户基于知情同意来决定是否同意个人数据被收集将耗费大量成本。由于人们的理解能力、情绪影响、信息不对称和认知偏差,虽然提高人们的数字理性十分必要,但将每一个人培养成完全理性的主体并不现实,也是边际收益很低的工作。因此,在培养公众理性的同时,将注意力放在如何对数据监管者和掌控者配置义务是成本更低也更有效的工作,这更有利于进行有效的数据治理和保护公民个人信息与数字人权。我们可以参考经济合作与发展组织《隐私保护和个人数据跨境流动指南》所确定的责任原则,授权或委托个人信息的数据监管者制定相应的规则,要求数据控制者和掌控者在符合法律原则、规则和监管理念与措施的前提下,制定行业规程并采取具体措施。比如,规定数据控制者和使用者在知情同意条款中有义务确保所收集个人信息的安全性,只要其所收集或掌握的个人信息被泄露,哪怕没有造成实际损害,也要承担相应的责任。通过这样的制度安排,我们可以确保个人信息的安全性,个人信息的使用不侵害当事人的利益和权利,且符合公共利益和公序良俗。

    2. 公众和专业人士的有效参与

    这种机制强调规则制定和决策的公开、民主和包容,同时强调专业人士有效参与。即便仅谈现在而非未来的5G时代,个人信息的使用及其脱敏后的销售,仍然是一桩大生意。对于这样一项数额巨大且事关几乎所有人信息利益和权利、公共利益乃至国家安全的事业,必须要以公开、民主的方式进行治理。公开意味着避免“暗箱操作”,而是采用公布议程、发表记录、准许旁听等方式,并将这些方式与互联网结合起来,让人们能够了解和知晓此类问题的处理,让事关所有人利益和权利的规则与决策能够被知晓,这是后续民主参与的前提与基础。这里所说的民主,既包括传统民主中的“共同核心”——公民参与,也包括数字化时代民主自身的特征——发出的声音应该被听到而非淹没在信息过载的海洋中。

    在互联网时代,往往是极小部分网站占据了极大多数的链接数与访问量,更多的网站及其承载的信息难以被看到。搜索引擎在链接和流量分配中起着重要引导作用,有人直接把这种不平等秩序称为“谷歌政体”(Googlearchy)。此时,互联网时代的信息超载和信息不足(公众看不到想看到或应该看到的信息)共存,我们需要更优质的过滤工具滤除垃圾信息以获得有效信息。与此同时,个人信息与数据的治理需要有专业人士的参与。虽然每个人都能就个人信息问题表达自己的观点,但对这些信息和数据的重要性、对处理它们所需要的技术工具、对于其所产生的后果这些重要和复杂的问题,需要包括互联网、大数据、产业家和法律人等不同专业群体的共同参与。听取来自不同行业的各种声音,可以让我们在理解和认识到问题复杂性的同时,也避免单一行业专家讨论和决策时的“扎堆犯傻”。

    3. ?提高“柔韧化”知情同意的兼容性

    “柔韧化”的知情同意模式形式上具有对经典和传统的坚守,但通过文字处理和相应的制度安排可以兼容乃至融合“场景理论”甚至“社会控制”模式的某些需求。因此,多重治理机制可以在“柔韧化”知情同意模式中得以实现。具体而言:

    首先,兼顾并强调监管者和掌控者的责任。如规定个人信息保护的监管制度及监管体制,强调对个人信息保护的国家义务,规定信息业者的社会责任、行业组织和个人信息保护组织基于公益对个人信息保护的社会义务,以及围绕这些主体而形成个人信息保护的社会化服务体系。

    其次,在保持对人的个体理性尊重的同时考虑人的理性不足问题。通过对知情和同意进行“柔韧化”处理,为当事人通过合同重新配置个人与国家、信息业者三者之间权利义务提供了空间。在信息不对称、个人认知能力不足或受制于场景而无暇详细知情的情况下,人们往往会“不得不”知情和同意。草案制定者意识到了这种可能性并进行一定程度的补救,要求“信息业者、政务部门应当以清晰、易懂的用语,全面、准确、及时地告知信息主体其个人信息处理的目的、方式、范围等相关事项”,同时排除“推定同意”,规定“信息主体的同意应当以明确的意思表示或者行为作出”“信息主体未予拒绝的沉默不被视为同意”。

    最后,提高与场景理论的兼容度。场景理论注重“根据具体场景的不同采取差异化保障措施,变信息处理前的静态合规遵循为信息使用中的动态风险控制”。通过规定“默示不被视为同意”的例外条款,强调在“法律、行政法规另有规定或与信息主体另有约定”的时候,可以推定主体的同意。这有助于各利益相关主体就个人信息收集、存储、使用、交易和利益分配等问题,形成多样化、情景化的权益安排。这同样有助于形成以合同和交易机制为中心的个人信息制度,能更灵活地照顾到个人信息问题在不同时空语境中的不同特性,也使监管部门能够同时借力于对格式合同的集中审查和对合同争议的分散裁判,使这些制度获得更有效的落实。

    4. 多重治理机制的实现方式

    基于责任和主体参与的多重治理机制,可以通过机构设置、制度安排、规范对接等措施得以实现。首先,设置专门的数据保护机构。在网络信息安全领域,我国已形成以中共中央网络安全和信息化委員会牵头抓总的统一领导体制。但在具体工作机制层面,仍缺乏统一筹划、部署、协调,导致许多已经订立的原则性规范难以落实、监管对象缺乏合规指导。为强化该领域监管工作的权责统一,保障相关政策思维和实践具有整体性,可参照欧盟和欧洲各国设立专门数据保护机构的思路,在中央统一领导下,设置或选定一个部门统筹个人信息保护领域的政策制定和执法协调工作。

    其次,制定多重制度以规制多方主体,实现从公权力机关到私人机构、从法律到社会规范、从交易到保险机制的立体化治理。包括人脸在内的个人信息是识别与确认个人身份的认证信息,刷脸及其他对个人信息进行识别与认证的权力是一种安全认证权力。公共机构和私人机构在认证个人信息时有不同的资格与权限,其刷脸行为也应当相应地具有不同的规范依据或合同约定,否则会模糊公共服务和私人服务的界线,形成不同身份与权限的混同。

    因此,未来个人信息保护制度建设的重点,除了在法律层面确定权利,还应推动社会规范的形成、进行较为细致的合同和交易机制设计。通过社会规范对政府和商业主体的数据行为进行制约,通过合同与交易机制促成各利益相关主体就个人信息收集、存储、使用、交易和利益分配等问题形成多样化、情景化的权益安排。此外,还应加强对个人信息损害保险机制的研究与设计,充分利用保险机制,弥补民事诉讼在风险管理和损失修复方面的不足。

    最后,对接不同部门法规范实现对个人信息一体化保护。为了对个人信息进行有效保护,除了在民事领域合理配置权利、尊重对个人信息使用的市场创新并进行有效规制外,还应该与行政法、刑法的相关规则进行有效对接,对那些突破道德底线、性质恶劣的侵犯个人信息行为,如对个人敏感信息、未成年人信息的收集、买卖甚至用于诈骗等行为,进行严厉惩处并长期保持高压态势。

    结 语

    在人脸识别技术已经普遍应用的时代,我们既要对新技术的应用和新产业的发展保持开放包容心态,也要注重对数字人权的保护和保障。人脸信息是人们(至少是短时间内)不可取代的生物识别信息,是个人信息重要乃至最重要的组成部分,是数字人权所应关切的基础性权益,我们理应“慎用”。

    在对人脸识别技术的应用进行治理时,要对大数据时代背景下的风险收益进行合理分配。要对生物信息被采集人、生物信息使用者和控制者、监管者之间的权利义务和职责进行合理划分,强化数据监管者、掌控者和使用者的责任。基于这一理念和原则,我们可以在权利主体、规范体系与多重治理机制方面做出相应的努力。首先,我们应在开放包容的心态下采取措施,形塑数字人权主体的数字理性,使其能够对新技术带来的便利和惊喜保持理性,对随之而来的风险收益有基本的认知。其次,制定一部架构和内容都合理的个人信息保护法并建构一系列与之配套的、具有可操作性的多重规范体系。最后,通过公开、民主、专业化的方式,形成基于责任和参与的社会规范集合和多重治理机制。通过塑造新时代的数字理性主体、完善法律规范体系和多重治理机制,以多层次、多面向的方式提高国家和社会治理体系和治理能力的现代化。

    Abstract:In the era of digital human rights, the development of face recognition technology has brought considerable convenience to our daily lives. However, it has also brought risks to personal information, privacy and property, and has the potential to degrade human dignity. While taking into account the development of the industry, we should be cautious about the application of face recognition technology. We should measure between the risks posed by the technology, the interests of the data providers, controllers, users and regulators involved, and also public interests. Based on it, the following measures should be taken. Firstly, shape “digital rational” subjects through the actions of public authority and the promotion of the citizens selfawareness. Secondly, based on the existing normative system and the reality, make the “informed consent” structure of personal information protection more flexible to construct a more reasonable normative system. Finally, build a multiple governance mechanism based on responsibility and participation by emphasizing the responsibilities of data controllers and regulators, promoting the effective participation of the public and professionals, and constructing an institutional system compatible with the “informed consent” framework. That is not only the way to protect the security of personal information, but also the way to realize digital human rights.

    Key Words: ?face recognition; personal information; privacy; digital human rights

    本文責任编辑:董彦斌

    青年学术编辑:任世丹