产品创新的人工智能精准治理

【摘要】 人工智能的工具性与社会性交互构成人工智能发挥精准治理的基础。其中,人工智能的社会嵌入结构、社会威慑和问责的感知,构成其实现精准治理功能的两种方式。人工智能的制度构建、社会制度演化中嵌入人工智能思维和技术信任、人工智能治理规则与社会治理制度的动态匹配,构成人工智能精准治理的三个主要路径。明确人工智能精准治理边界,对人工智能精准治理的技术信任与制度信任的信任传递,以及技术信任与人际信任的信任传递,是构成人工智能精准治理的制度条件。本文从产品创新角度探讨人工智能精准治理,结论具有较好的普适性,对于企业、产业政策,乃至公共管理领域的人工智能治理都具有理论启示与参考价值。
【关键词】人工智能 精准治理 产品创新 信息技术
【中图分类号】 F203 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.10.005
前言
尽管人工智能技术仍然处于早期的扩散阶段,其对经济和社会发展的影响仅为冰山一角,但其对全球经济社会的影响却倍受国际学术界重视,学者们普遍认为人工智能的发展可能会极大驱动经济快速增长。[1]据2017年埃森哲发布的报告,到2035年,人工智能可能会使中国经济的年增长率上升1.6%,劳动生产率上升27%。尤其在制造业领域,人工智能极大改变了中国制造业在全球的竞争格局。在产品创新智能化不断增强的同时,也形成了产品创新的人工智能精准治理的诸多问题和挑战。本文拟就产品创新中的人工智能精准治理涉及的理论基础和前沿问题进行初步探讨。
现有对人工智能精准治理的研究多侧重其特征和影响的剖析,缺乏针对人工智能精准治理的理论基础的深入探讨。同时,现有人工智能治理研究中提炼出来的问题,或源于对实践现象的观察和总结,或源于逻辑演绎的分析,缺乏从人工智能治理的理论基础角度提出科学研究问题。诚然,人工智能首先表现为新一代信息技术的特征,自然率先受到计算机科学、信息技术等工程技术领域学者的重视。与其他信息技术不同的是,人工智能的智能化过程还表现出强烈的社会特性,但现有研究对人工智能社会化特征的深入剖析不足,导致人工智能理论研究出现“重理轻文”、工程技术占据人工智能主导话语权的现象。这种现象在人工智能发展的初期是正常的,但随着人工智能技术的迅速扩散和社会化发展,从社会科学领域建构人工智能治理的理论基础,为推动人工智能治理研究及行动提供理论依据和策略分析框架,是一项重要而亟待探讨的社会科学学术前沿课题。
诚然,可以从多个社会科学角度探讨人工智能的精准治理问题。本文拟从产品创新角度探讨人工智能精准治理,因为互联网、大数据情境下的产品创新亟待人工智能精准治理。企业与用户互动创新成为企业开放式创新的主流模式,在企业与用户互动创新过程中,委托人与代理人之间的多重互动关系隐含的信息非对称,为双方的机会主义行为提供了新的环境和可能。同时,互联网环境下消费者从“乌合之众”变成了权力不断增强的特征化群体,[2]使领先用户或特殊消费者有更多的可能实施机会主义行为,反之,企业借助大数据形成的知识优势也更有可能对用户实施机会主义行为。[3]面对互联网、大数据情境下形成的新型机会主义,产品创新亟待通过构建人工智能精准治理等新型的治理模式来推动研发管理创新,以适应企业开放式创新发展的新要求。
产品创新主要由创意涌现、产品验证、市场验证、新品主流化验证及新品全生命周期管理五个阶段组成。产品创新的人工智能精准治理,指基于人工智能实现对产品创新全过程利益相关者的机会主义行为进行精准约束、规范,或威慑与问责感知。与管制不同,治理主要针对机会主义行为。从信息非对称角度分析,机会主义行为可以分为事前机会主义行为(如逆向选择等签订委托代理合同前的机会主义)以及事后机会主义行为(如道德风险等签订委托代理合同后的机会主义)。在产品创新全过程中,无论是企业还是用户,都存在着事前与事后机会主义的可能,尤其是涉及信任的产品研发更是如此。因此,如何解决产品创新中的各种机会主义问题,成为研发创新管理中一个长期探讨但仍未有效解决的难题。
随着人工智能技术的迅速扩散和应用,借助人工智能构建治理体系成为一个重要的理论探讨方向,[4]但现有研究对人工智能为什么具有精准治理功能缺乏强有力的学理解释。近期,从责任式创新范式角度剖析人工智能的创新治理,[5]从技术逻辑与公共政策选择角度探讨人工智能的治理价值,[6]为本文研究奠定了基础。据此,本文拟从产品创新角度探讨三个问题:一是为什么人工智能具有精准治理的功能,或者人工智能发挥精准治理的机制是什么;二是人工智能怎样才能发挥精准治理的作用,或者人工智能发挥精准治理的主要路径有哪些;三是人工智能发挥精准治理的条件是什么,或者什么因素会使人工智能精准治理的功能失灵。
人工智能发挥精准治理的机制
此部分主要从人工智能的工具性与社会性、人工智能社会性的治理价值以及人工智能实现精准治理的具体机理三个方面,探讨人工智能在产品创新中发挥精准治理功能的机制。
人工智能的工具性与社会性。要解释清楚为什么人工智能具有精准治理的功能,需要先从人工智能的工具性与社会性开始探讨。人工智能本质上属于一种信息技术,或者说,是信息技术在当今互联网、大数据时代最新成果的一种集成化体现,因而人工智能拥有信息技术的工具性与社会性两种属性。从技术哲学角度分析,基于技术工具论发展起来的技术社会建构理论强调,技术具有工具性和社会性两种特征。[7]
信息技术工具性的探讨认为,信息技术的工具作用让人们对其产生信任,如认为信息技术处理数据的操作稳定性和有用性是信任的主要来源。[8]从这个角度看,信息技术是提高效率的一种现代工具,其工具性作用通过功能示能性来实现,功能示能性指信息技术为用户提供的可能功能集合。[9]这一概念来源于知觉心理学中个体与物理实体交互时对通过该物体可以实现某种行为的感知。[10]例如,信息技术基础设施和控制机制为用户提供了及时、准确、完整的数据传输以保障交易的完成。用户对交易過程中信息技术的加密机制、数据传输协议和认证机制的感知,构成其对技术可依赖性信念的来源。[11]
在产品研发中,产品数据管理(PDM)系统、客户关系管理(CRM)系统、呼叫中心(Call-Center)系统等为研发人员与用户互动创新提供了实时、准确和系统的数据基础,且通过各种报表、图形、三维动画等形式呈现出未来新产品多个维度的特征,从而为用户刻画出新产品的全景画像。信息技术为企业或用户提供的这种可能的功能集合,就体现出产品创新中信息技术的工具性。然而,信息技术还存在制度建构意义的社会性,因为信息技术可以用多种方式来设计,且技术发展的方向存在多种选择。例如,人工智能实践应用往往是各种用户在社会利益驱动下的选择过程,或者说是一种社会集体行动的结果。具体地说,社会群体将价值意义或制度选择赋予人工智能的技术选择和存在形式,不同的社会环境塑造出不同的人工智能特征,且人工智能技术与不同社会情境之间相互构建,形成人工智能技术与社会制度之间的动态匹配过程,使人工智能技术及应用影响到当代社会的制度发展。
在产品研发中,海尔、美的等制造企业通过搭建与用户互动创新平台,广泛吸收全球用户、创客等社会力量参与产品创新,尤其腾讯、阿里、百度、京东、酷狗音乐等互联网企业,通过大数据平台实现新产品或服务的“灰度测试”或“预售”,在产品创意阶段和产品验证阶段充分吸收用户或潜在用户的意见和创新贡献,使信息技术或产品创新从源头上就被赋予了社会属性或社会群体的集体选择特征。例如,微信技术开发的“不要让我等、不要让我想、不要让我烦”三原则,不仅迅速扩散为中国社交平台和终端体验开发的基本原则,而且构成不少企业产品创新中的制度规范,甚至影响到现实中男女朋友交流的潜规则或体验感。因此,互联网、大数据、人工智能等新一代信息技术,使当代产品创新更加体现出创新的社会性,这源于人工智能技术的社会性对当代制度建构的影响,也成为人工智能社会性具有治理价值的基础。
人工智能社会性的治理价值。近年来,在信息技术的众多社会性研究中,信息技术的治理功能越来越得到学术界的重视。[12]理论上,人工智能技术能够发挥治理作用的前提,是人工智能技术被理解为一个社会对象,其制度意义被社会环境定义,因为信息技术系统是紧密因果关系的工具安排,能够将人际关系约束锁定在紧密的关系中。[13]因此,人工智能的存在具有物质性,人工智能的物質性是社会的,因为信息技术存在的物质性是通过社会过程创建的,也正是由于这些物质性,社会行动或集体选择才是可行的。[14]从结构化理论视角来看,人工智能等信息技术的构建使操作以一种标准化、结构化和可预测的方式展开。在这个结构化过程中,信息技术代表规则集和资源集,主体在日常行为中利用这些规则和资源,[15]将制度、规范或标准嵌入人工智能技术中。人工智能通过内嵌的前提、特征和标准化流程控制主体或利益相关方行动的内容和方式,而不再依赖于人脑中的知识或现实制度。因此,人工智能等信息技术不仅是工具性的,也是社会物质性的,从而具有约束机会主义的治理功能。
概括地说,人工智能社会性具有治理价值主要源于三个方面。首先,人工智能是由具备不同功能的不同类型技术模块组合而成,具有多维度技术特征,如大数据运算特征、深度学习特征等。信息技术各功能模块之间特定的逻辑联系规定了用户行为的特定序列和界限,[16]从而客观上形成了对事前或事后可能的机会主义行为的多维度刻画。其次,信息技术具有特定的保证结构,促进各个主体以平等的身份参与到互动或交易活动中。例如,在线个人信息的披露增强了以互联网为沟通媒介的可控制性,使用户可以有选择地查看和编辑信息,考虑如何回应,从而对委托人或代理人的机会主义行为构成第三方的保证结构,或第三方的客观存在。这种第三方的社会客观存在,对产品创新中的事前或事后机会主义行为构成潜在威胁或问责感知。最后,从技术结构论角度看,人工智能等信息技术不仅是由人类设计与创造的,也会对人类行为具有约束作用。这体现在随着信息技术创新和技术使用过程中累积学习,技术的约束作用逐渐对象化,从而对产品创新中的机会主义行为进行对象化约束。
与公司治理等社会制度构建的治理功能不同,人工智能的治理功能对社会关系的塑造,是基于信息技术“计算”中的因果关系。这种因果关系一旦被嵌入或配置出来,人工智能就会具体化和制度化,失去其与社会主体的主动性之间的联系,因为信息技术中嵌入“特定的符号和物质属性”,物质属性作为技术的内在属性,不受环境影响。[17]作为规则的“承载者”,信息技术使得一些行为是可能的,而其他行为是不可能的,或者是很难达成的。[18]例如,在深度学习形成的人工智能中,出现所谓人类理性不可能形成的策略或算法,因为所谓人类理性本质上都是局部理性而非真正意义上的全局理性,但人工智能的理性一方面是大数据学习累积的理性,另一方面是理性结构上的全局理性,可以形成人类治理理性中难以构造的治理策略。
人工智能实现精准治理的具体机理。如前述,人工智能发挥精准治理的核心机制在于人工智能的工具性与社会性,且社会性特征构成其发挥精准治理的核心基础。具体地,人工智能的社会性能够发挥精准治理功能的机理有二:一是人工智能具有社会嵌入结构,可以通过算法嵌入治理规则;二是人工智能具有社会威慑和问责感知,可使机会主义行动者具有精准威慑和问责的感知性。
首先,人工智能实现精准治理的功能,可以通过技术嵌入人工智能算法规则中,即事先将约束产品研发中机会主义行为的规则嵌入在人工智能技术中,将因果序列委托给机器序列,客观和强制性地实现对产品研发中的事前和事后机会主义行为进行约束。或者说,基于算法自动化生成的各种深度学习技术,成为治理机会主义行为的有力工具,并且以不明显的方式实现。[19]其中,不同类型的信息技术在应用中会引发不同类型的规则,正式的或非正式的规则均由不同嵌入特征的信息技术设计所决定。[20]
理论上,信息技术沿着功能简化和功能闭合两个方面将任务和操作程序化,实现对现实世界复杂性的简化。[21]在功能简化上,信息技术将现实世界的复杂关系重构为一个简化的数字化因果关系或工具性关系集合,以一种新的方式建构和耦合主体行为的逻辑序列。具体地,信息技术将现实情境中的不确定性和复杂度转化为一种逻辑化的操作联系固化在“计算”中,这种逻辑结构为主体的社会互动提供了标准化的实现方式。[22]同样地,产品研发中的人工智能对于机会主义行为的治理规则也如此被“固化”在技术体系中,成为制约机会主义行为的一种新型治理工具。在功能闭合上,信息技术将社会因果关系锁定在技术执行流程中,使信息技术脱离了主体而独立运行,且在运行过程中不受外界干扰,从而确定了信息技术处理社会复杂度的边界,使治理机制更加理性化。因此,人工智能的技术功能闭合构成其发挥治理功能的重要基础,使人工智能的精准治理具有其自身的规范。
其次,信息技术具有对违规行为被问责的感知。[23]人工智能实现精准治理的功能,是以提升针对机会主义行为者的精准威慑或精准问责的感知水平来实现的。类似地,在针对交通超速等机会主义行为的治理中,交警部门或者设置超速违规测速告知,或者设置明显的车速检测装置,提升机会主义者的精准威慑和问责感知,从而提高交通管理的治理水平。具体而言,人工智能精准治理对机会主义的精准威慑和问责主要来自两个方面:一是人工智能的监控和自动实施,使机会主义者感知到如果违规就会受到确定的、精准的、迅速的问责或惩罚,使机会主义者快速“计算”出预期的收益与成本之间的结果,或快速“算出”机会主义的得失;二是人工智能平台使机会主义者感知第三方的客观社会存在,在实施机会主义行为时增加对第三方社会存在“独立评估”的成本,人工智能由此提高机会主义的成本而对其构成约束。
产品研发中,尤其是新产品推出的初期阶段,产品可靠性或工艺设计普遍存在不足,这些不足既有可能诱发用户的机会主义行为,也有可能诱发生产企业的机会主义行为。缺乏第三方实时数据的强有力证据,往往诱惑企业或用户大量采取机会主义行为。例如,在某个全屋定制新产品中,用户以甲醛超标为由向商家进行索赔,商家以出厂评估报告进行反驳,用户则以自己购买的仪器数据为索赔依据,最后经过第三方检测机构介入,发现用户是在关闭房间一个月后再进入房间检测,而厂家则是在通风三天后进行检测,二者结果自然不同。针对类似的情境,人工智能可以作为第三方介入,发挥精准治理的重要作用。
人工智能怎样才能发挥精准治理的作用
无论是在产品创新领域,还是在其他社会经济领域,人工智能发挥精准治理的作用,主要通过人工智能的制度构建、社会制度演化中嵌入人工智能思维和技术信任以及人工智能治理规则与社会治理制度的动态匹配三个主要途径来实现。
首先,产品创新的人工智能要发挥精准治理的作用,需要对人工智能的制度构建进行设计。人工智能的制度构建,指人工智能主体或设计者根据社会治理的目的和技术可行性构建计算规则和决策规则,通过计算规则和决策规则实现与现实制度中的治理规范一致的技术治理体系。可见,人工智能的制度构建是其发挥精准治理作用的关键一环,构成人工智能实现技术性“制度治理”的基础。例如,追踪员工的互联网使用过程,记录网络行为,开展安全审计,能够提升机会主义者对问责或惩罚的精准性感知,传递出管理者重视系统使用活动的信号,进而减少信息系统的滥用。又如,电子处方系统嵌入的约束是由治理目标决定的,对专业人员进行身份认证,对行为逻辑的鉴定,对处方和配药的审计追踪等,都能够促进主体对治理规则的服从,这些都属于人工智能的制度构建过程或治理结果。通过人工智能的制度构建,人工智能在产品研发中发挥精准治理的作用,可以体现在产品研发的创意涌现、产品验证、市场验证、新品主流化验证以及新品生命周期管理各个阶段。例如,在产品验证阶段,企业借助人工智能,就新产品工艺和技术路线选择推动用户广泛参与,或在大数据平台上实现高效的企业与用户互动创新,或借助社会创客平台参与产品创新,从而在工艺选择和技术选择等研发初期阶段就规避用户使用阶段的机会主义风险。实践中,模拟未来销售情境中的制度环境,反向改进新产品技术性能或工艺,正在成为企业借助人工智能实现精准治理的重要方式之一,如西门子、波音、通用等大型企业基于大数据和人工智能产品研发仿真系统,实现对产品创新的全项目建模和全流程虚拟现实管理,推动产品创新领域人工智能精准治理的发展。
其次,人工智能在产品研发中要发挥精准治理的作用,需要在现实的制度演化中嵌入人工智能思维和技术信任。制度本质上是一种治理工具或形式,人工智能环境下的制度演化需要构建技术信任,并实现对技术信任的有效转移。[24]人工智能技术与产品研发技术之间具有相互依赖性,治理规则与机会主义行为之间会产生各种随机波动或耦合,由此形成的制度演化需要培育企业与用户双方逐步以人工智能的规则思维和方式来行事,以委托人与代理人双方基于人工智能达成的社会信任——技术信任来实现互动创新,这就需要满足企业与用户互动创新的参与约束和激励相容条件。从制度经济学视角看,培育对于人工智能精准治理的社会共识,形成对产品创新的人工智能精准治理流程、规则与结果的技术信任,并基于技术信任持续完善人工智能精准治理的多种选择结果,是人工智能发挥精准治理作用的关键要素之一。需要指出的是,人工智能精准治理不存在最优或最理想的结果,而是多项可供选择的最优治理结果的组合,需要主体根据情境或治理目标在可供选择的最优治理预期结果中进行选择或抉择。
在产品研发中,人工智能精准治理是一种特殊形式的制度化治理,通过将治理规则或规范嵌入產品研发的技术设计与开发中,将治理的制度化实施过程直接委托给人工智能系统,由人工智能系统自动执行本应由主体完成的治理行动。像信息技术成为现实中的治理技术一样,[25]过程规范是任何制度结构的一部分,人工智能形成的技术规范构成社会治理中机械化的制度结构,将人工智能思维和规则嵌入现实社会治理中,促使现实社会的治理“机械地执行”原本由制度设计者执行或委托他人执行的治理过程。
最后,人工智能在产品研发创新中要发挥精准治理的作用,需要推动人工智能治理规则与社会治理制度之间的动态匹配。人工智能技术形成“制度治理”与人工智能技术参与的社会治理之间需要实现动态的匹配。一方面,社会主体或设计者对人工智能的制度构建的设计,需要与现实社会制度相匹配,同时,社会导入人工智能精准治理也需要与既有的治理制度相匹配;另一方面,人工智能的精准治理与现实社会治理制度之间也需要动态匹配。要实现上述两个层面上的动态匹配,需要社会逐步构建起人工智能精准治理的能力—制度—方法—平台(Capability-Mechanism-Methodology-Platform, CMMP)的社会框架。[26]其中,人工智能精准治理能力和治理制度是实现精准治理的关键因素,人工智能精准治理方法体系和大数据平台是实现精准治理的技术基础。在人工智能精准治理能力与制度设计的动态匹配(简称CM匹配)过程中,仅仅强调主体具备人工智能精准治理的能力是不够的,还需要将这种能力与治理制度设计相匹配。同时,主体如何通过人工智能精准治理方法体系与大数据平台相匹配(简称MP匹配)来支持治理的实现,也是人工智能精准治理发挥作用的重要一环。在此基础上,通过CM匹配与MP匹配之间的再匹配,构成CM—MP匹配,提升人工智能精准治理的成效。目前,对于这四个方面的动态匹配关系研究处于起步阶段,甚至对于这四个主体的研究也如此,但这四者的关系及各自特征,将深刻地影响到人工智能精准治理的发展及应用成效。对这四个主题科学问题的研究,将成为人工智能精准治理的热点问题。
在产品创新中,企业研发人员在与用户互动创新过程中,需要基于大数据平台逐步建立起与用户互动创新的动态能力,但用户事前或事后机会主义行为往往使研发人员难以判断某个意见或建议的真实价值,即使与领先用户的合作创新,也存在类似问题。另外,企业研发人员如何获取产品创意,或者,在与用户互动创新过程中,如何甄别欺骗、诱惑、侵占、转售用户创意或创新原型等机会主义行为,都需要通过人工智能精准治理来逐步规范。同时,无论是研发人员还是用户都需要从更广泛的社会责任视角重新审视产品创新,将人工智能精准治理纳入企业责任式创新的范畴中,产品创新不仅需要获得产品验证和市场验证,未来也需要获得社会责任的验证,这都是人工智能参与市场治理可以发挥作用的空间。但是,要使人工智能精准治理在产品创新中发挥这些作用,需要不断提高人工智能精准治理的CM—MP匹配,否则,难以实现针对产品创新中委托人或代理人机会主义的精准治理。
人工智能发挥精准治理的条件
人工智能是否能够对产品创新中的机会主义行为发挥精准治理的作用,需要考虑具体的情境条件。在不同的情境下,人工智能发挥精准治理的作用不同,本文不准备就不同情境下人工智能发挥精准治理的不同作用进行探讨,拟重点剖析人工智能发挥精准治理的一般制度条件,尤其是分析在什么样的制度条件下人工智能精准治理会失灵。[27]从技术角度看,人工智能具有计算智能、感知智能和认知智能三个层面的能力。相应地,可以从人工智能精准治理所需要的“计算智能”“感知智能”和“认知智能”三个方面分别探讨人工智能精准治理的社会制度失灵条件。
首先,无论是将治理的规则或制度嵌入人工智能技术中,还是在现实治理制度中纳入人工智能技术推动精准治理,都必定存在着治理失灵的空间或区域。对于人工智能精准治理失灵的探讨,将加深人们对于人工智能精准治理的认识。对于制度失灵的探讨,本质上就是刻画制度有效性的边界。
在产品创新中,无论是现实中还是人工智能干预下,对于创意涌现或与此相关的创新活动中的机会主义行为,都是难以实现精准治理的。也就是说,对于深刻隐藏在人类脑海中的高度非结构化活动,人工智能与现实中的治理制度安排一样,都存在失灵的可能。例如,我们对人工智能企业的调研发现,人工智能模型可以高效地实现从1到10的功能性或技术性创新,但对于从0到1的创意涌现与模糊判断存在着相当大的智能盲区。从这个角度看,保障人工智能精准治理的第一个制度条件,就是社会制度需要明确、清晰、简要地规划出人工智能发挥精准治理作用的边界,避免人工智能精准治理的泛化和庸俗化。通俗地说,一个文明健全的人工智能社会,不是人工智能无所不能的社会,也不是一个纯粹技术工具的社会,而是一个有限边界的人工智能社会——内嵌多个平行的人工智能小社会的智能社会。诚然,这个边界会随着人工智能技术与制度之间的动态匹配而不断延伸扩展。
其次,社会主体对人工智能的技术信任与制度信任形成信任的传递,是保障人工智能精准治理的第二个制度条件。主体对于人工智能的技术信任,指其对信息技术基础设施和控制机制促进治理行为完成的信念。或者说,主体对人工智能精准治理的信任和对其治理机制的信任,构成现实制度中对主体治理行为的信任。主体对于人工智能的制度信任,指其对基于人工智能社会构建的程序、约定、协议或规则等促進治理行为完成的信念。或者说,人工智能精准治理的制度信任,就是主体对于人工智能精准治理形成的一系列规则和程序能够保障实现预期治理的信念。
在产品创新中,企业研发人员对人工智能模型建构的新产品模型及市场模拟结果不仅具有技术信任,而且具有制度信任。同时,在创新迭代过程中,企业研发人员对人工智能实现精准治理的预期结果在不同情境下相互传递,本质上是人工智能精准治理的CM—MP匹配迭代过程,当企业与用户、企业与企业之间,或用户与用户之间形成机会主义行为时,依靠社会主体对人工智能精准治理的技术信任与制度信任的信任传递,将主体基于对人工智能的技术信任转变为对治理的制度信任,或将对制度的信任转变为对人工智能的技术信任,从而使人工智能实现对现实中机会主义行为的精准治理。因此,社会主体对人工智能精准治理的技术信任与制度信任之间的信任转移,是构成其有效性的条件之一。
最后,技术信任不能代替人际信任,技术信任只是补充了人际信任。人际信任是一种关系治理的形式,当人际信任水平较高时,即使不依靠正式契约的约束,也不会使一方遭受机会主义行为的损失。[28]基于此,社会主体对人工智能的技术信任与人际信任之间的信任传递,是保障人工智能精准治理的第三个制度条件。随着人工智能的扩散和普及,社会出现多个平台提供第三方人工智能治理服务,或人工智能精准治理成为支持、促进产品创新治理的一种常态形式,社会主体需要将对人工智能的技术信任转变为人际信任,或将人际信任转变为技术信任,使人工智能成为社会主体之间的治理关系之一。
在企业与用户的互动创新中,互联网及大数据平台为企业与用户互动创新提供了新的即时通讯与交流工具,使企业与用户的联接实现时空压缩效应,无论是企业还是用户都可以低成本地实现与全球目标主体的联接,这种联接隐含了彼此双方的平等条件,就像网络语言所说的那样,在互联网上你不知道与你对话的是人还是狗,但对话身份都是平等的。因此,产品创新中的机会主义主体或者是个体,或者是机构,或者仅仅是人工智能的机器,在这种情境下,产品研发过程中的机会主义行为部分可能是一种计算机算法行为,或者说是一种无意识的集体计算行为,纯粹依靠人类大脑或现实制度难以计算和判断,需要借助人工智能来促进大数据时代的治理。此时,人工智能在产品创新中发挥精准治理的作用,需要社会主体对其的技术信任与其对社会主体的“人际信任”之间存在信任转移,即社会主体需要相信其他社会主体也对人工智能实现精准治理具有同样的信念。否则,人工智能精准治理难以实现。例如,当某种新产品被企业作为主流化产品进行推送时,人工智能模型分析结果表明该新产品有高风险侵权的特征,企业因此而终止或修改该新产品的主流化方案。但是,市场上其他企业借助人工智能模型也获得同样结果却依然推广,且因侵权而未受到实质上的损失,如果这样的现象反复出现,人工智能就难以发挥对机会主义行为的精准治理。
在產品创新治理领域,第一个条件提出的社会需要清晰规划出人工智能发挥精准治理作用的边界,避免人工智能精准治理的泛化和庸俗化,确定了人工智能的计算智能的失灵条件;第二个条件提出的社会主体对人工智能精准治理的技术信任与制度信任之间的信任传递,确定了人工智能的感知智能的失灵条件;第三个条件提出的社会主体对人工智能精准治理的技术信任与人际信任之间的信任传递,确定了人工智能的认知智能的失灵条件。这三个条件从社会制度层面共同刻画了人工智能精准治理的有效性边界。例如,在波音787的研发与市场扩展中,通过智能装配、智能驾驶、智能飞控、智能维护、智能材料及标签等领域新品研发与市场拓展,波音787从高技术集成的宽体机迈向准智能飞机,[29]由此需要社会主体通过创新研发、驾驶、运维、飞控、维护与供应链创新等多项制度来保障,才可以实现波音787的全球化应用,从而推动航空运输迈进智能飞机时代的门槛。但是,如果社会主体缺乏对波音787的计算智能、感知智能和认知智能的有效性边界的共识,也缺乏对其技术信任、制度信任和人际信任的信任传递,那么,对于该产品研发创新和市场推广活动,就缺乏了人工智能精准治理的制度条件。因此,人工智能发挥精准治理的条件,本身就是人工智能需要解决的一个技术与制度交互影响的难题。
结论与政策含义
本文从产品创新角度探讨三个问题。一是为什么人工智能具有精准治理的功能?研究表明,人工智能不仅是工具性的,也是社会性的,从而具有约束机会主义的治理功能,因此,人工智能的工具性与社会性交互构成人工智能发挥精准治理的基础。其中,人工智能的社会嵌入结构、社会威慑和问责的感知,构成其实现精准治理功能的两种方式。二是人工智能怎样才能发挥精准治理的作用?结果表明,人工智能的制度构建、社会制度演化中嵌入人工智能思维和技术信任、人工智能治理规则与社会治理制度的动态匹配,构成人工智能精准治理的三个主要路径。三是人工智能发挥精准治理的条件是什么?探讨表明,明确人工智能精准治理边界,对人工智能精准治理的技术信任与制度信任的信任传递,以及人工智能精准治理的技术信任与人际信任的信任传递,构成人工智能精准治理的三个制度条件。
本文的研究结论有两个主要的政策含义:其一,产品创新的人工智能精准治理同样遵循从认知到行动的制度演化逻辑。推动产品研发的人工智能精准治理,不仅依然需要遵循“人没有想清楚,计算机一定想不清楚”的信息技术开发与应用规则,而且需要遵循技术与业务战略匹配原则,推动人工智能精准治理与现实制度治理之间的动态匹配。其二,人工智能精准治理的边界与现实制度治理之间的边界既有可能重叠,也有可能相互脱节,如何通过人工智能精准治理压缩现实制度治理的失灵空间,或通过现实制度治理弥补人工智能精准治理的失灵空间,对于推动人工智能精准治理均具有重要的实践意义。最后,本文从产品创新角度探讨人工智能精准治理,结论具有较好的普适性,对于企业、产业政策,乃至公共管理领域的人工智能治理,也具有理论启示与参考价值。
注释
[1]Aghion, P. et al., "Artificial intelligence and economic growth", NBER Working Paper, 2017, No.23928.
[2]吴瑶、肖静华、谢康、廖雪华:《从价值提供到价值共创的营销转型——企业与消费者协同演化视角的双案例研究》,《管理世界》,2017年第4期;肖静华、吴瑶、刘意、谢康:《消费者数据化参与的研发创新——企业与消费者协同演化视角的双案例研究》,2017年中国企业管理案例与质性研究论坛最佳论文。
[3][26]谢康、肖静华、王茜:《大数据驱动的企业与用户互动研发创新》,《北京交通大学学报(社科版)》,2018年第2期。
[4]陈伟光:《关于人工智能治理问题的若干思考》,《人民论坛·学术前沿》,2017年10月下。
[5]梅亮、陈劲、吴欣桐:《责任式创新范式下的新兴技术创新治理解析——以人工智能为例》,《技术经济》,2018年第1期。
[6]贾开、蒋余浩:《人工智能治理的三个基本问题:技术逻辑、风险挑战与公共政策选择》,《中国行政管理》,2017年第10期。
[7]张成岗:《西方技术观的历史嬗变与当代启示》,《南京大学学报(社科版)》,2013年第4期。
[8]Mcknight D. H.; Carter M., Thatcher J. B., et al, "Trust in a Specific Technology: An Investigation of Its Components And Measures", ACM Transactions on Management Information Systems, 2011, 2(2): pp. 12-25.
[9]Markus M.L.and Silver M. S., "A Foundation for the Study of IT Effects: A New Look at DeSanctis and Poole's Concepts of Structural Features and Spirit", Journal of the Association for Information Systems, 2008, 9(10/11): pp.609-632.
[10]Gibson J.,"The Theory of Affordances. Hillsdale", NJ:Lawrence Erlbaum Associates,1977.
[11]Ratnasingam P. and Pavlou P., "Technology Trust in Internet-Based Interorganizational Electronic Commerce", Journal of Electronic Commerce in Organizations, 2003, pp. 17-41.
[12]Jinghua Xiao; Kang Xie and Qing Hu., "Inter-firm IT Governance in Power-imbalanced Buyer–supplier Dyads: Exploring How It Works and Why It Lasts", European Journal of Information Systems, 2013, 22(5), pp. 512-528.
[13]Luhmann N., The Sociology of Risk, Berlin: de Gruyter, 1993.
[14]Leonardi P. M., Materiality, Sociomateriality, and Socio-technical Systems: What do These Terms Mean? How Are They Different? Do We Need Them? UK: Oxford University Press, 2012, pp. 25-48.
[15]Orlikowski W. J., "The Duality of Technology: Rethinking The Concept of Technology in Organizations", Organization Science, 1992, 3(3), pp. 398-427.
[16]Kallinikos J.; Hasselbladh H. and Marton A., "Governing Social Practice: Technology and Institutional Change", Theory & Society, 2013, 42(4), pp. 395-421.
[17]Leonardi P M., "Theoretical Foundations for the Study of Sociomateriality", Information and Organization, 2013, 23, pp. 59-76.
[18]Orlikowski W. J., "Using Technology and Constituting Structures: A Practice Lens for Studying Technology in Organizations", Organization Science, 2000, 11(4), pp. 404-428.
[19]Napoli P. M., "Automated Media: An Institutional Theory Perspective On Algorithmic Media Production and Consumption", Communication Theory, 2014, 24(3), pp. 340-360.
[20]Bartelt V. L. and Dennis A. R., "Nature and Nurture: The Impact of Automaticity and the Structuration of Communication on Virtual Team Behavior and Performance", MIS Quarterly, 2014, 38(2), pp. 521-538.
[21]Luhmann N, The Sociology of Risk, Berlin: de Gruyter,1993.
[22]Contini F. and Cordella A., "Assembling Law and Technology in the Public Sector: the Case of E-justice Reforms//Proceedings of the 16th Annual International Conference on Digital Government Research", ACM, 2015, pp. 124-132.
[23]Vance A.; Lowry P. B. and Eggett D. L., "Increasing Accountability through the User Interface Design Artifacts: A New Approach to Addressing the Problem of Access-Policy Violations", Social Science Electronic Publishing, 2015, 39(2), pp. 345-366.
[24]謝康、杨文君、肖静华:《在线品牌社区中技术信任促进电子商务初始信任的转移机制》,《预测》,2016年第2期。
[25]Mohr R. and Contini F., "Reassembling The Legal: The Wonders of Modern Science'in Court-Related Proceedings", Griffith Law Review, 2011, 20(4), pp. 994-1019.
[27]对于人工智能发挥精准治理作用一般条件的刻画,需要建立相应的规范模型来实现,这是未来有待完成的工作。
[28]Poppo L. and Zenger T., "Do Formal Contracts and Relational Governance Function as Substitutes or Complements?" Strategic Management Journal, 2002, 23(8), pp. 707-725.
[29]张新苗、余自武、杨雨绮:《人工智能在波音787上的应用与思考》,《工业工程与管理》,2017年第6期。
责 编/樊保玲