管窥人工智能换脸技术的法律风险与防范

    张诗曼 姚天冲

    关键词 换脸技术 深度伪造 法律风险 应对措施

    作者简介:张诗曼,东北大学文法学院法学系,研究方向:法学;姚天冲,东北大学文法学院法学系副教授,法学博士,研究生导师,辽宁省政府法律顾问。

    中图分类号:D920.4 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文献标识码:A ? ? ? ? ? ?? ? ? ? ? ?DOI:10.19387/j.cnki.1009-0592.2020.07.002一、问题的提出

    近日,一款名叫ZAO 的换脸软件打着“仅需一张照片,出演天下好戏”的名号在各大应用市场高分出道,上线伊始就受到了广泛热议,正如其所宣传,用户在下载该应用后,仅仅需要上传一张符合较低要求分辨率的照片,人工智能技术便可以完整识别并提取照片中的信息,例如人脸的面部表情、言语动态和视线聚焦角度等,便可以用照片中的人脸替换掉任意一个视频素材中任何人的脸。然而这场换脸热却逐渐变味,凭借其迷惑性在诸多领域兴风作浪。

    这样的面部合成技术真的能做到天衣无缝吗?实则不尽然,这些生成的图片与视频毕竟是算法拼凑的产物,技术师编写的普适性技术应用在具体的场景中,在各个细节都做到以假乱真,一时迷惑众人的同时,难免会有一些疏忽,也存在着一些漏洞。一家西班牙公司REGIUM通过 this person does not exist.com 这个造脸网站,利用人工智能GAN技术以及英伟达的模型合成了四个虚拟工程师,作为网站的开发者,但由于在照片背景处理和人脸眼镜附近的扭曲失真而被投资方发现,然而这并非仅凭人眼或算法可以及时洞察的,需要依托一定的技术手段与生活经验与灵活的思维加以辨别。

    此项技术问世后一度引发争议,甚至出现了将明星照片代入色情视频的产业链条,即便封闭相关搜索,技术的流失与源代码泄露犹如潘多拉盒子被打开,以深度学习算法(生成式对抗网络)为基础的技术不断被修正,自动演进能力也出乎意料的演化。迫在眉睫的“真相危机”不断涌现,不断污染网络空间,带来视觉冲击的同时,还有哪些潜在的社会危害?一系列违法与侵权代价、法律风险到底应该由哪些主体对此类危害负责?各个国家的政府组织对此态度如何?当下既问世的应对法是否具有实际效力?我们是否能够寻得一条更加完善、更加周全的应对出路?二、人工智能換脸技术概述

    探求一项技术所引发的可能性社会问题,需要从技术本身入手,当下人工智能技术发展正处于由弱人工智能向强人工智能过渡的阶段,深度学习技术的广泛应用使人工智能的操作日趋自动化,换脸技术便是“深度学习+”的一种表现。

    (一)换脸技术概念与原理

    换脸技术,即所谓的“换脸术”主要是通过人工智能“深度伪造”技术实现的,“深度伪造”实质上是一个合成词项,是“深度学习”+“伪造”的结果。①“人工智能深度学习”能力近年来突飞猛进,某种程度上来说已经形成了多层联结的神经网,可以自动导入数据、自动计算并完成任务。技术的原理是通过一种密集光度一致性办法(Dense Photometric Consistency measure),达到跟踪源和目标视频中脸部表情的实时转换,由于间隔的时间很短,使得“复制”面部表情成为可能。实质上,就是通过深度学习识别“源数据”,提取素材中的面部特征、表情细节以及动态变化,在此基础上经过大量的经验积累与数据分析,就可以由系统自动形成伪造的动态人脸并将其覆盖叠加到原素材上,以实现更新变换,创建的图像模型作为新数据就是人工智能的算法产物。换脸技术的发展是人工智能学习发展到更高阶段的彰显,具有双链条能力的“对抗生成网络”模型才是“换脸术”的核心,优化与传统的人工智能学习技术,对抗生成网络模型具有双链条,同时进行的神经网络,各司其职,在生成新数据的同时又实现了对生成物的自动鉴别验证,从某种程度上说“对抗生成网络”实现了几近于由单纯完成人类命题进化到了自学自验的“无监督学习模式”。

    (二)换脸技术的流程

    换脸技术涉及到两个方面的操作。源数据开始输入后,先从人脸的识别开始,从众多元素中察觉检测到需要更换的部分,即是对人脸信息的检索与提取,图像信息自然录入系统数据库之后再开启,图像信息进行分析与运算,换言之人脸识别是人脸转换的第一阶段。

    接下来是对抗生成网络(GAN)的运作,两组神经网络“生成器”与“鉴别器”是此项技术的灵魂所在,通过二者的对抗实现换脸任务的落实。所获取的目标人物的照片与视频信息汇总而成的数据集在“生成器”神经中制造出新的影像,又在“鉴别器”神经中进行新旧对比,检测对比结果为真实时开展下一步的图像替换。由单张的图片到视频转换上,大体上需要经过以下步骤,首先是把源视频素材以帧为单位切分,提取其中的待转换面部区间与信息,导入到训练模型中进行替换整合并生成视频,经过系统后期制作,提高伪造视频的清晰度与真实度。在整套系统运行,基本无需人脑分析、人工剪辑和再校对,实现了人类角色的转变。

    (三)换脸技术的应用

    换脸技术的功能再强大,不过是人类思维概念的具象化与操作化,数据素材库的填充离不开人类的资源提供,生成物用途也由人类意向主导。在技术实现途径上,人工智能换脸技术常见的使用方式主要包括三种:一是将真人换脸成真人象;二是将真人换脸成尚可识别身份的虚拟形象;三是完全抛开真人形象设定把真人换脸后形成纯虚拟形象,其他具体应用都是依托此三种基础变形而来。

    三、人工智能换脸技术的安全隐患与法律风险

    技术具有两面性,人工智能的发展也难以脱离此定律。换脸技术的生成物最大特点就是虚构性,虚构内容不同、利用手段不同、用途目的不同都会产生不同的法律后果。人工智能换脸技术当下的三种应用形式具有的一个共性就是以真人为载体,输出形象可能变化万千,根据输出形式的不同还会造成不同的侵权可能。换脸技术本质上是一种伪造手段,超脱娱乐功能,社会的危害程度不容小觑,滥用风险涉及方方面面,“深度伪造”的算法技术与学习能力加持应用,相辅相成进一步使得对其应用可能产生不同于一般视频伪造处理技术的风险。从换脸算法的技术来看,依据步骤设计可以把此项技术的安全风险分类成人脸信息提取信息的安全隐患、人脸变换时的法律责任以及生成物应用不当的可能性风险三个方面综合考虑。

    (一)侵犯公民人身权利

    1.个人信息泄露与身份伪造

    面部识别是换脸的第一步,区别于其他生物识别方式,人脸识别方式具有自然性、不被察觉性和非强制性,大数据时代人脸信息具有的价值也越来越高,被泄露被交易的成本也越来越低,个人信息与数据的泄露可能性也大大提高。由于人脸识别技术与应用的发达,此类信息的易得程度大大提升,据不完整统计,2019年网络商城中公开售卖的人脸数据达到17万条(北京青年报)。当下网络信息的互通,单张的照片中的面部信息背后将隐含着大量的身份信息。即便是合法的相关人脸数据库开发的公司在收集前欠缺同意协议的签订,以“ZAO”的用户协议为例② ,用户在使用之前被强制签订换脸时同意或确保肖像权利人同意授予服务提供商肖像权的使用以及图片视频的使用和改造。换言之,在主动上传照片的同时就是允许了应用平台对个人敏感信息的采集,加入了系统的数据库,由此就面临着个人身份的公开与身份结构,个人信息被滥用后果的安全风险难以评估。面部识别已然成为身份认证的重要方式,面部表情动图的伪造相当于身份盗用,通过对人脸识别的伪造,开启恶性木马算法的设备攻击,入侵窃取使用者的个人信息的情况将一发不可收拾。除此之外,当下的规制只停留于事后的救济措施,只能是删除与下架,已流失的信息具有不可追回性,隐形危害辐射范围难以控制。

    2.对个人肖像权、名誉权和著作权的侵犯

    换脸过程中,擅自进行利用他人的面部图像或视频素材时刻面临着民事侵权责任。首先,在未经许可的情况下,擅自在“换脸”技术中使用含有他人外在真实容貌特征的照片,且以营利为目的,则认定构成肖像权侵权。若存在将他人肖像“换脸”到某些不雅视频等行为,以致可能造成受害人社会评价降低的,则侵权人还涉嫌侵犯受害者的名誉权。在名誉权的损害认定上,一般采取推定的方法,只要能够证明是虚假事实,且具有侮辱、诽谤性,并且该等事实可能为公众所知,就可推导受害人的名誉遭受损害。其次,在未经许可的情况下,擅自在“换脸”技术中使用纯虚拟形象,因虚拟形象本身不涉及肖像权、名誉权的问题,则涉嫌侵犯该虚拟形象著作權人的著作权。被诉侵权行为的内容、被告是否实施了被诉侵权行为、被告有无过错、是否造成损害、被诉侵权行为与损害之间有无因果关系等均是审查范围。同时,在未经许可的情况下,擅自在“换脸”技术中使用含有他人肖像的角色图片,此时,既涉嫌侵犯肖像权、名誉权,也涉嫌侵犯著作权人的著作权。

    (二)威胁社会伦理价值观

    1.身份结构与商品化

    人类的面部与身份特征都被数字化,算法将人的身份拆解,传统意义上的身份特质分解并与他人的身份特质再组合重构,人工智能再造的虚拟形象以拟制主体身份展现在真实的人类面前,在伦理上必然造成社会的恐慌与伦理重构。人的体貌特征融合后不再具体的某个人典型的身份,跨越了国界种族的限制,失去了辨识度,一方面容易造成社会角色混乱与身份特征混淆。另一方面,自然人的身份被商品化也并非当下社会伦理所能接受,在相关人员不知情情况下,复制、改造他人的面孔,甚至恶意融合不雅内容以谋求金钱利益,构成对他人尊严的损害,被解构整合身份特征的人沦为被消费的商品。

    2.真伪信赖危机

    现阶段深度伪造的生成物所依托的技术手段足以达到以假乱真的程度,“眼见为实”的一般真理不再适用,人类难以在日常的社会生活中区分数字面孔与自然人,虚假内容轻易取得信任,真伪之辨难上加难,合理的猜测与过度猜忌的界限更加难以平衡,在新闻领域和司法领域必然造成更大的信赖难题,真伪界限被数字化操纵,娱乐的趣味性与真相的真实性在混淆视听的人工智能生成物问世后更加模糊。“娱乐至死”的扭曲价值冲击着当下伦理观,进而引发一场社会信任危机。

    (三)危害社会秩序稳定

    1.辐射领域行业危机

    模型建设能力已经能够达到令人信服的程度,换脸技术制造的“假人脸”基本达到了应对人脸识别的要求,当下人脸识别在很多身份认证中已经成为了实名制身份定位的辅助手段,由此辐射的领域涉及方方面面。特别是金融系统中对动态人脸的认证承认度与本人亲临的效力几乎对等,换脸技术使此认证逻辑彻底崩塌,高于照片认证的活体动态监测逻辑完全失效。显然,当下社会各界并没有做好应对措施,在自然人人脸的识别与拟制视频的对比上,现有应用于社会生活的设备尚未具备这样的能力,这为包括金融界在内的认证必须行业造成了极大地身份识别困难,公安系统、门禁签到等社会生活领域也都会受到颠覆性的影响。

    2.公共信息污染

    公共信息及市场参与者互联互通的共享信息,公共信息安全在信息时代的重要性不容小觑,人工智能深度学习与伪造技术的快速成长,制造音视频与图像为入侵病毒盗用公共安全信息创造了便利条件。一些企业为了在技术新兴阶段尽早占领先机,夺得市场份额,在技术应用上不能周全顾及安全隐患的规范,导致市场信息混乱,防治界定标准缺乏,现阶段司法领域就涉嫌传播、组织制作不雅视频的行为给出了明确的惩治,以牟利为目的,制作、复制、出版、贩卖、传播淫秽物品的也将面临刑事处罚,但除此之外的其他危害社会公共信息领域净化安全的行为标准因市场准入标准和判定体系的规范化缺失,威胁市场信息共享和竞争的良性循环。

    3.政治稳定与国际秩序破坏

    宗教信仰、种族国籍、国际政治领域所涉及的问题具有敏感性,更加需要真实报道与平等人权的保护,肆意更换外貌特征与伪造具有特殊意义的视频在这些领域的滥用,在社会稳定上的破坏力可能直接引发难以控制的后果。利用伪造技术生成政治领袖发表不当言论的音视频,不符宗教信仰的行为,威胁国际关系的各种材料,将会大幅度增加社会关系复杂性,不利于社会稳定局面与国家长治久安。四、国外应对人工智能换脸技术的现状与启示

    换脸技术一经问世在国际范围内引发了大量专家学者的思考,侵权行为与危害社会秩序的行为相继发生,各国政府纷纷积极出台应对措施,处理手段与实践结果各有特色,政府、应用平台与技术开发者都被赋予了相应的义务。

    (一)加拿大

    加拿大在对换脸技术在司法上具有明确立场,且已经确定了侵权责任问题的相关解释。加拿大魁北克省《魁北克民法典》中规定了此类侵权的范围和形式界定,有目的地使用他人姓名、图像、肖像或声音而非合法的公众信息的行为均可视为侵犯他人隐私,以隐私侵犯为受人身权利侵犯的受害者提供司法保护,并且可依法获得相应的救济赔偿。《诺维奇命令》就换脸技术所涉及的调查问题给出了具体的措施,法律与媒体相辅相成,二者联袂共同针对换脸应用隐藏的违法违规行为进行调查取证,社交平台作为信息的拥有者与数据存储平台必须配合法院,强迫相关平台调取平台使用者的真实信息,匿名身份不再是违法的保护伞,追根溯源依法追究侵权者侵权责任。

    加拿大的法院命令出台之迅速值得赞叹,能够在问题出现的短时间内及时出台指导性命令,确定将媒体平台在规制中的责任与义务,多主体联动的治理局面构建,为其他国家的应对措施探索提供借鉴,具有启示意义。

    (二)欧盟

    当下欧盟各国未出台关于针对换脸技术的法律法规,尚且還处于破坏性威胁处理的论证阶段。但一向对网络安全相当重视的欧盟国家不可能无动于衷,尤其是涉及个人隐私与权益的部分,以《关于涉及个人资料处理的个人保护以及此类资料自由流动的指令》为核心,形成了较为完整规范的个人信息保护法律体系。并且相当重视对相关个人资料的掌握者的问题更加敏感,在法律中明确了这类群体的责任与义务,资源收集也有一系列规范,在公民的基本人权与第三方信息汇总与收集之间寻求最佳平衡点,否则构成违法行为。行政机关也发挥了较大的作用,欧盟各成员国国内都设有专门的数据信息安全保护部门与工作组,这类机构不仅仅可以为国民提供咨询服务,还通过法律授权的方式拥有调查与接入法律技术的权力,拥有较强的执行力,以致力于为国民提供直接、专门的救济渠道。

    欧盟国家在网络信息安全上基本形成了对个人信息保护的完整体系,对平台的信息使用有一定的规制标准,个人信息泄漏后的救济措施也很便民可行,为其他国家的网络问题解决拓展了思路,起到了模范作用,网络时代对个人信息的保护需要完备系统的法律规范。

    (三)美国

    美国的应对行为具有技术监管的显著特征,以行业自律为主,但政府也发挥了一定的规制监管作用。美国已经明确认识到“深度伪造”技术对国家安全造成负面影响的严峻形势,国家情报总监丹·科茨在《全球威胁评估报告》中表示“深度伪造”技术会生成虚假却令人深信的影音产物,对美国以及其他国家安全都会造成不良威胁。2018 年,美国的技术开发者针对伪造人脸的算法创建了甄别分辨系统,通过构建包容海量的伪造图像的数据库训练更强大的人工智能系统,以对抗现存的深度伪造算法③。2019年美国专就Deepfakes开展了听证会,有学者建议国会对《通信规范法》中互联网平台无须为使用者的行为负责的规定进行修改,此项提议目前尚未落实,在法律法规上美国没有做出实质性的应对措施,仍然滞留在舆论探讨与不断在众议院提出议案的层面。但是,就实践操作上,迫于各界的压力,换脸技术在美国境内网站上已经被封,讨论版被清除,开源代码也被清除。

    由美国的应对可见,用技术对抗技术,用更强大的技术约束技术,在人工智能时代的重要性与必要性,加快技术发展,研发一套能够鉴别伪造视频的新技术,人工智能时代需要创新规制手段,技术手段的应用在当今社会的治理中地位日趋重要。五、我国应对人工智能换脸技术法律风险的防范建议

    按照当下人工智能技术的发展速度,有效科学的风险防范措施极为重要,我国在换脸技术的可能性危害爆发前,要充分吸取其他国家的经验,从完善立法、促进防范技术发展、创新规制手段实现共治氛围入手,积极应对挑战。

    (一)完善现有法律法规,增设人工智能领域立法

    新兴领域的出现必然带来立法冲击,个人信息的公开化在信息时代缺乏限定,侵权的司法界定也具有一定难度,并且人工智能的侵权主体界定复杂多元,当下对人工智能相关领域的人身权利保护缺乏足够的法律法规规制,人工智能技术的开发者、平台技术运营商以及技术使用者的责任分配混乱混淆。《中华人民共和国网络安全法》和《互联网电子公告服务管理规定》④是在司法技术中运用的主要专门性法律法规,对于互联网与人工智能时代科技的不断进步来说,一定程度上面对专业性问题具有立法空白。首先,应该从立法角度界定人工智能领域个人的人身信息范围,以便明确人身权利具体保护内容。其次,建立人工智能产业链追责机制,应该形成覆盖从算法开发阶段到产出生成物的传播利用阶段的安全与责任标准,真正实现环环相扣的制度规范,以免问题发生时的相互推诿与问责主体不清。当下适用的《公共安全人脸识别应用图像技术要求》作为行政法规,已经在对新问题的立法跟进中做出了第一步突破,除此之外,更具有普适性的生物信息识别等相关问题还需进一步强化立法规制,《中华人民共和国个人信息保护法》正在拟制,其中对此专题应该有些涉及,以便化解技术逻辑的伦理价值矛盾与定义模糊问题,真正实现对个人信息的保护。

    (二)技术打假,开发破解系统

    兼顾救济的前提是甄别伪造图像,通过技术破解深度伪造的产物不仅能够助力司法调查中的举证问题,还能解决公众的真相辨别之疑惑。借鉴美国的对抗甄别系统,用更强大的人工智能对抗人工智能。区块链程度就可以在此领域发挥优势,区块有公共密码和设置私人密码,密码采用新函数编写,几乎不可破解,着重培养区块链技术人才,利用其不可逆性进行人工智能变脸生成物的辨别。同时,一些技术研发人员提出构建以太坊智能合约技术出口和普适性思路,通过星际文件系统将所有的信息整合起来,复制全部数据,并跟踪全部数据的使用情况,不断对比分析原始数据的变换来寻找被伪造的成分。

    (三)发挥媒介把关人作用,强化行业自律

    根据“守门人”理论⑤,信息传播同样也设置了若干的“关卡”,信息传播能否顺利,主要取决于这些关卡之间的连结和彼此恪守的准则。强化平台责任,对生成物进行筛选与衡量,做好把关,基于用户个人的合理适度需求伪造的换脸结果可以得到认可,行业自身在“技术正当技术”层面约定自律规范,制定统一明确标准,在视频的传播、用户信息采集、识别技术共同应用和检索伪造成果资料,甚至是用户的准入门槛等诸多方面约定行业规范,并增强行业规范的效力,在自我责任认定与履行上强化行业内部的规制,在行业内部建立完善的监督管理机制,用自我约束、自我监督的手段优化人工智能换脸技术的使用方式,搭建起人工智能领域,技术进化至强人工智能时代里行业自律的具体实施准则,净化互联网空间。

    (四)刚柔并济,丰富规制手段

    平台责任的承担现阶段以行政处罚为主,一概而论通过硬性的罚款或强制性清理已发生的服务漏洞只能是在事后进行补救,具有特事特办色彩,不能从根源上形成具有一般性的规制措施。应丰富行政规制的手段,根据具体情况进行,如行政约谈的柔性规制方式与硬性的行政处罚相结合。相关行政部门可以与技术开发方或应用服务提供者相关负责人进行定期行政约谈,对阶段性发生的或可能出现的安全风险加以整改要求限制,要求相关主体严格按照国家法律法规以及相关主管部门建议,组织进行内部自行调整,依法依规收集使用用户个人信息,规范协议条款,强化网络数据和用户个人信息安全保护。更新条款与用户协议,删除具有漏洞的技术点或使用规则。刚柔并行,要求平台方与使用者在用户信息的收集与处理、素材库的发布与使用标准、生成图像视频的导出等诸多方面,做出符合法律规范于一般社会伦理道德的约定规范。六、结语

    换脸技术的应用不可避免的对人类社会生活呈现出了负面影响,不可从优劣角度直接定义深度伪造的换脸技术作为人工智能领域的衍生品的属性,正确合法的应用技术尤为关键。应该以人工智能技术为工具,充分发挥政府、公众、平台的各自优势,明确义务与责任,形成一体化的治理体系,降低换脸技术为社会造成的安全隐患,必须完善共治以着力破解真伪信赖危机,使换脸技术的应用与演化在道德伦理与法律法规的控制内,由此发挥人工智能时代的技术优势。

    注释:

    ①“深度伪造”的过程就是将原始的图片和视频素材等数据递给换脸技术,此后仅仅依靠算法的自身运算,在大量的训练与演算运行基础上自动完成换脸操作。

    ② ZAO的用户协议显示:用户在使用“ZAO”的时候,如果把脸换成自己或其他人的脸,意味着同意或确保肖像权利人同意授予“ZAO”及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利,包括但不限于:人脸照片、图片、视频资料等肖像资料中所含的您或肖像权利人的肖像权,以及利用技术对您或肖像权利人的肖像进行形式改动。

    ③美国国防高级研究计划局则發起了一项重大的媒体取证研究计划,它借助Media?Forensics 技术来自动检测换脸操作,提供如何执行这些操作的详细信息,来确定视频或图像是否进行了深度伪造。

    ④《互联网电子公告服务管理规定》第 12 条:“电子公告服务提供者应当对上网用户的个人信息保密,未经上网用户同意不得向他人泄露,但法律另有规定的除外。”《互联网电子邮件服务管理办法》第 9 条:“互联网电子邮件服务提供者对用户的个人注册信息和互联网电子邮件地址,负有保密的义务。互联网电子邮件服务提供者及其工作人员不得非法使用用户的个人注册信息资料和互联网电子邮件地址;未经用户同意,不得泄露用户的个人注册信息和互联网电子邮件地址,但法律、行政法规另有规定的除外。”

    ⑤守门人是一种理论的代称,它是卢因在1947年提出来的,信息总是沿着包含有门区的某些渠道流动,在那里,或是根据公正无私的规定,或是根据'守门人'的个人意见,对信息或是商品是否被允许进入渠道或是继续在渠道里流动作出决定。

    参考文献:

    [1]陈盼.欧盟网络隐私权保护模式研究——兼述欧盟对Facebook面部识别技术的调查[J].研究生法学,2013,28(4):135-143.

    [2]王禄生.论“深度伪造”智能技术的一体化规制[J].东方法学,2019(6):58-68.

    [3]王飞龙.人脸识别技术及其安全性综述[J].信息记录材料,2018,19(12):229-230.

    [4]党家玉.人工智能的伦理与法律风险问题研究[J].信息安全研究,2017,3(12):1080- 1090.