《湖南师范大学社会科学学报》2018年第1期“国家社会科学基金重大项目成果推介”栏目,发表我所李伦教授、孙保学博士和李波博士的论文“大数据信息价值开发的伦理约束:机制框架与中国聚焦”。
编者按:国家社科基金重大项目是现阶段国家社科基金中层次最高、资助力度最大的项目类别。项目涉及我国政治、经济、文化和社会发展中具有全局性、战略性、前瞻性的重大理论和实际问题。项目研究具有复杂性、前沿性和综合性。本刊自2017年第1期起设立“国家社科基金重大项目研究成果推介”栏目,每期推介1-2篇作品,以服务党和政府决策、传承优秀传统文化、推动构建中国特色哲学社会科学。
本期刊发的《大数据信息价值开发的伦理约束:机制框架与中国聚焦》是李伦教授主持的国家社会科学基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”的阶段性研究成果。当今“大数据”建设和应用已经成为世界各国的国家战略,其所蕴含的巨大的经济和社会价值备受瞩目,因而大数据的开发与应用总会搅动起人们普遍的乐观情绪。但是伦理学总是会对这种变化提供一种反思审视的视角。因为大数据的开发应用也带来了很多隐患,个人隐私和信息安全在大数据背景下会变得非常脆弱。所以探讨建构一种大数据时代信息共享的伦理促进和约束机制,以实现对大数据信息价值开发进行伦理规约就显得尤其重要了。
大数据被称为21世纪的“新石油”,发达国家纷纷将“大数据”的建设和发展上升为国家战略。大数据的应用已渗透到政治、经济、文化等领域,各行各业高度重视开发大数据潜藏的价值。大数据环境下信息价值开发创造了巨大的社会效益,也引发了隐私和信息安全等伦理问题[1]。发现或辨识这些问题,提出或完善解决这些问题的伦理约束机制是大数据时代亟待解决的重大任务。
伦理约束机制是伦理观念和规范的程序化和制度化,是使伦理观念和规范见诸行动的保障机制。二战之后,伦理观念和规范的程序化和制度化在医学伦理、生命伦理等领域获得了长足的发展,国际组织、政府、行业协会和医疗机构等提出了一些行之有效的伦理约束机制,对规范医学研究和临床实践起到了重要作用。我们可以借鉴这些经验,将之移植到大数据信息价值开发领域。事实上,这种尝试已经在一些国家和国际组织中出现了。
根据约束机制作用域和效力的不同,伦理约束机制可分为具体的伦理约束机制和一般的伦理约束机制。具体的伦理约束机制主要适用于具体的领域,如信息共享、隐私权、信息安全、代码等领域。一般的伦理约束机制适用于大数据信息价值开发的各个领域或环节,主要指包括信息行业伦理准则、信息职业执照制度、信息伦理委员会和信息伦理教育培训制度等在内的伦理管理制度。
根据约束机制作用方式的不同,伦理约束机制包括狭义的消极意义的约束机制,也包括广义的积极意义的促进机制和保护机制。一谈到伦理约束机制,人们易于认为这主要指限制性的约束机制,也因此使一些业界人士对伦理规范和伦理约束机制产生误解,认为伦理阻碍医学、科学和商业的发展。我们认为,不能将伦理约束机制仅仅理解为限制性的或消极性的,它也包括同样具有规范力的伦理促进机制或伦理保护机制。大数据环境下信息价值开发的伦理约束机制既包括狭义的限制性的伦理约束机制,也包括伦理保护机制或伦理促进机制。具体而言,大数据环境下信息价值开发的伦理约束机制包括信息共享的伦理促进和约束机制、隐私权和信息安全的伦理保护机制、代码的伦理约束机制、信息伦理管理制度等。毫无疑问,大数据信息价值开发的伦理约束机制多种多样,且仍处在不断开发之中,本文仅就其主要部分做简要介绍,并将之视为一个动议,希望引起人们对该问题的深入探讨。
一、信息共享的伦理促进和约束机制
大数据环境下信息价值开发面临的核心问题是信息共享的伦理促进和约束机制,关键是信息共享的边界问题。只有完善信息共享的促进和约束机制,才能保障信息价值开发的合理有序进行。在大数据环境下,信息共享是大数据信息价值开发的前提,对大数据信息价值开发具有重要意义。数据共享有利于促进大数据环境下的信息价值开发,有助于促进社会发展。一方面,没有信息共享,就可能出现所谓的“信息孤岛”现象,信息价值开发更是无从谈起;另一方面,信息共享可能被滥用,数据被无序开发,造成侵犯隐私权和个人数据权、危及信息安全等问题,并引发一些伦理争端。
也就是说,信息共享目前存在“信息共享的两重性问题”:共享滥用和信息孤岛。无限制的信息共享可能会侵犯隐私权、个人信息权和知识产权,不利于信息安全,对信息提供者造成较大损失;过度的规制又会影响大数据信息价值开发的健康发展,加剧信息孤岛现象。针对前者,必须建立信息共享的伦理约束机制,使信息共享保持在合理范围之内,避免共享滥用问题。针对后者,必须建立信息共享的伦理促进机制,确保大数据信息价值开发的顺利进行,消除信息孤岛现象。
为解决信息共享的两重性问题,我们可以从大数据以及大数据时代本身的特征出发,结合政府、企业、科学界等方面关于信息共享的实践现状和理论研究现状,探讨信息共享在大数据时代的必然性及其在大数据信息价值开发中的作用和地位,建构信息时代的共享伦理。随着大数据时代和信息社会的真正到来,时代精神将实现何种转换,是一个极有意义的议题。韦伯(Max Weber)曾探讨了新教伦理与资本主义精神的关联,我们认为共享伦理与信息时代精神存在类似的关联,共享伦理应成为信息时代精神的重要内容,也就是说共享伦理是信息共享伦理促进机制的核心内容。同时,我们可以从技术和伦理层面探讨信息共享可能带来的困境,如信息共享对传统的个人隐私和知识产权观念带来的冲击、对个人权利的侵犯、对信息安全的负面影响等,并且探讨突破这些伦理困境的可能性。我们可以在了解现状的基础上,总结与分析国内外成熟的促进信息共享的政策法规,探讨大数据背景下各领域内促进信息共享的可行性机制,并结合现有关于信息共享的政策法律的现状,探讨哪些政策能够引导信息共享健康发展,哪些政策因力度不够或者过度而造成新的伦理和社会问题,探寻信息共享的道德边界,提出信息共享的伦理原则和伦理约束机制。
为了促进科学数据的共享,国际组织、各国政府、科研资助机构等广泛开展科学数据的共享服务与实践。国内外企业在促进数据共享方面,也已经开始实践。国际科学数据共建共享始于20世纪50年代,在国际科学理事会的组织领导下,先后成立了世界数据中心(WDC)和国际科技数据委员会(CODATA)。美国最早宣布对国家投资获取的科学数据采取“完全与开放”的政策,在20世纪末确立了在国家层面上建设科学数据和信息全社会共享环境的战略部署,美国国家航空航天局(NASA)2012年3月发布一整套数据共享政策。欧盟启动了“欧洲数据自由流动计划”,以推动欧盟范围内的数据资源自由流动,建设包容性的数字化社会。欧盟开放科学战略提出了欧盟云倡议(European Cloud Initiative),将通过促进科学家、企业和公共部门之间的合作来促进创新服务的提供。2001年,我国科技部启动了“国家科学数据共享工程”,2003年发布《关于成立科学数据共享工程领导小组等有关事宜的通知》。2014年,阿里巴巴、百度、腾讯、中国电信、中国移动、中国信息通信研究院、英特尔联合发起成立开放数据中心委员会(ODCC),ODCC联合实验室2017年正式成立。阿里巴巴、腾讯、百度等中国企业目前已加入全球性的开源项目Open Daylight(ODL)项目。
欧美国家对于数据共享的规制有相对完善的政策。2005年,欧盟委员会提交政策战略《数字化单一市场战略》。国外有较多较为完善的数据共享协议,例如,《知识共享许可协议》(CC),《知识共享的豁免》(CC0),以及开放知识基金会(OFK)的开放数据公用(Open Data Commons)项目,其中包括《公共领域贡献与许可》(PDDL)、《开放数据共享署名许可协议》(ODC-By)、《开放数据库协议》(ODC-ODbL)。我国近些年也出台了多部与规制信息共享有关的法律法规,主要包括《中华人民共和国保守国家秘密法》《中华人民共和国网络安全法》《中华人民共和国电子签名法》《全国人民代表大会常务委员会关于加强网络信息保护的决定》等。2017年4月11日,《贵阳市政府数据共享开放条例》颁布,这是我国首部政府规范数据共享开放的地方性法规,此后各地政府纷纷出台相关的数据共享管理条例。总之,国内外关于数据共享的政策已有一些较为成功的尝试,国际上开始出现日趋完善的数据共享体系,我国有关促进数据共享的政策法规的出台近年来也加快了步伐,但数据共享的伦理促进和约束机制仍有很大的改善空间。
二、隐私权和信息安全的伦理保护机制
隐私权和信息安全是大数据信息价值开发最引人瞩目的问题。大数据信息开发在创造管理价值、经济价值和科学价值的同时,也存在侵犯隐私权、危及信息安全的风险。大数据时代的来临意味着数据成为一种生产因素,决策者对个人数据挖掘的精确程度直接影响到决策有效性的高低。然而,对个人信息和数据的过度挖掘可能侵害个人的隐私权,肆意追求数据挖掘的广度和深度可能危及信息安全。
要做到对大数据信息价值的合理开发,可以从分析其存在的伦理风险入手,平衡数据挖掘、信息价值开发与保护隐私权、信息安全之间的关系,解决大数据环境下危及隐私权和信息安全的伦理问题,构建隐私权、信息安全的伦理保护机制。首先,要揭示大数据信息价值开发引发的隐私权和信息安全问题,并对这些问题进行社会影响评估,揭示隐私权和信息安全对于个人和社会发展的意义,确证保护隐私和信息安全的重要性。其次,要确立大数据信息价值开发的基本逻辑框架以及应用范围,揭示大数据技术本身所蕴含的伦理价值,分析隐私权、信息安全与大数据技术之间的价值冲突,在此基础上提出大数据环境下保护隐私权和信息安全应当遵循的伦理原则。我们认为,平衡原则是处理创新与风险的基本原则,平衡原则的具体化是建立隐私权和信息安全伦理保护机制的基本路径。平衡创新与风险,建立隐私权、信息安全的伦理保护机制是目前最为紧迫的任务。另外,应当建立政府、行业和其他组织多方共建的隐私权和信息安全的伦理保护机制,并引入隐私条款等的第三方评估机制,维护信息生态的公平公正。政府、企业、医疗机构和科研机构等大都制订了自己的隐私条款,这些条款的内容是否合理合法,是否得到适当执行,需要进行客观公正的评估。
针对大数据信息价值开发面临的隐私权和信息安全问题,国际组织、政府、行业组织、企业和学界等进行了大量研究,并提出了诸多可供借鉴的伦理保护机制。国内外学者都比较关注隐私权和信息安全的伦理价值,以此论证保护隐私和信息安全的必要性和紧迫性。霍文(Jeroen van den Hoven)和维克特(John Weckert)对隐私和个人数据的保护给予高度关注,指出需要从个人身份相关信息的角度来定义个人数据,同时提出需要保护个人数据的四种道德理由——“基于信息的伤害”“信息的不平等”“信息不公平”以及“道德自治与道德认同”[2]。
迈尔-舍恩伯格(Viktor Mayer-Schönberger)和库克耶(Kenneth Cukier)深入分析了大数据技术引发的隐私风险,认为在大数据时代如果沿用传统的告知与许可方式,采取模糊化和匿名化等技术手段保护个人隐私已收效甚微,传统的隐私保护技术如密码访问、身份确认和用户访问控制等在大数据技术下形同虚设,原有的信息安全和隐私保护的法律法规也出现了很多空白[3]。鉴于大数据技术的兴起对隐私保护构成了巨大威胁,人们提出了知情同意等方案,欧美一些国家和学者等还提出了数据删除权或遗忘权等。希望在保持数字化经济持续创新的同时保护用户的隐私权。
面对大数据给隐私权和信息安全带来的挑战,各国政府纷纷制定保护隐私权和信息安全的法律法规。欧盟出台了一系列有关隐私和个人数据的法律法规,如1995年的《个人数据保护指令》、2002年的《隐私与电子通讯指令》、2009年的《欧洲Cookie指令》、2015年通过的《一般数据保护条例》。美国主要通过第四条宪法修正案和第十四条宪法修正案的相关判例保护隐私权,此外还有1966年的《信息自由法》、1970年的《公平信用报告法》、1974年的《隐私法案》、1986年的《联邦电子通讯隐私法案》、2012年的《网络化世界中的消费者数据隐私权——全球数字经济中兼顾保护隐私和促进创新的框架》、2016年的《宽带和其他电信服务中用户隐私保护规则》等。我国出台了《计算机信息网络国际联网安全保护管理办法》等互联网隐私保护规章制度。2007年,“隐私权”作为独立的民事权利第一次出现在《侵权责任法》中。2016年通过的《中华人民共和国网络安全法》是我国网络领域的基础性法律。2017年3月通过的《中华人民共和国民法总则》对个人信息保护也进行了规定。
许多国家还设立了隐私保护或数据保护机构。如澳大利亚信息专员办公室(OAIC)、英国信息专员办公室(ICO)、法国的国家信息和自由委员会(CNIL)、爱尔兰数据保护专员办公室(ODPC)、德国联邦数据保护和信息自由专员等。国际合作组织也致力于保护个人隐私和信息安全,如欧洲数据保护组织联合会(CEDPO)、国际隐私(PI)、隐私权专家国际协会(IAPP)等。
三、代码的伦理约束机制
进入以算法为主导的人工智能时代后,价值开发工具自主性程度不断提高,信息价值开发过程呈现出一些新的特征。代码在大数据信息价值开发中的应用也日益普遍,尤其随着数据挖掘技术和人工智能技术的发展,几乎所有信息价值开发活动都依赖代码。代码是数据挖掘不可缺少的技术手段,为大数据信息开发创造了巨大价值,但代码或算法也引发了一些问题,如算法歧视、隐私侵犯、数据安全事故等。因此,有必要对代码或算法进行伦理规制。
代码是完成特定任务的计算机程序、软件或技术架构,代码处于信息开发活动的底层,常被视为单纯的技术现象,因此代码常常处于伦理约束的视野之外,成为一个“隐性问题”。代码既是信息价值开发行为的规范力,也是需要被规范的技术力量。这就要求我们揭示作为信息价值开发手段的代码的普遍性和隐蔽性,将这一“隐性问题”显性化,并将之纳入伦理约束的范围之内,提出包括规范代码的伦理原则、代码的伦理归责、代码的合理性评价标准等在内的伦理约束机制。
我们可以从代码带来的社会伦理风险和挑战切入,对代码等信息价值开发的技术手段进行伦理规制。迪特里奇(Thomas Dietterich)和霍维茨(Eric Horvitz)认为,在未来信息时代的智能社会中,我们至少面临编程错误、网络安全、不当使用、共享的自主权和社会经济影响5大类风险考验[4]。其中每一类风险都与对代码的伦理规制密切相关,这些风险对信息价值的开发者和自主性技术本身的伦理规制提出了新的要求。提前采取必要的安全保障措施,消除或减少这种风险发生的可能性,为可能发生的风险制订防范措施,是构建代码伦理约束机制应当考虑的重点问题。
首先,我们应当了解代码在大数据信息价值开发中的应用情况及其规范作用的独特性。随着大数据时代的到来,人类的操作、决策和选择越来越依赖代码。即使不是完全代替人类做出决定,智能系统也会为我们的决策提供建议,甚至以各种隐蔽的方式左右我们的思考和选择。例如,智能推荐系统会根据我们的购物习惯向我们推荐商品,根据我们的运动习惯指导健身,提醒我们该与哪位亲朋好友联络,等等;数据挖掘算法能够预测市场走势,指导公司做出前瞻性的战略调整;维基百科的学习算法能够自主地鉴别那些误导性、有偏见和不准确的知识。
关于用技术来规范网络空间人类行为的研究始于20世纪90年代,利用作为技术的代码约束人类行为方面越来越受到重视。例如,社交软件通过内置“阅后即焚”(burn after reading)功能来提高信息安全;为了保护个人隐私,智能交通软件不再保存使用者起点和终点0.5英里范围内的活动路径。米切尔(William J.Mitchell)在《比特之城:空间·场所·信息高速公路》一书中指出,代码就是网络空间的“法律”[5]。莱斯格(Lawrence Lessig)通过《代码:塑造网络空间的法律》等著作将米切尔的思想深化为一套理论体系,认为人类行为的规范力有四种——架构、市场、法律和社会规范,网络程序和协议等代码是网络空间的架构,对人类网络行为具有法律、市场和社会规范无法比拟的约束作用[6]。
其次,要重视代码的伦理规制架构的问题。正因为代码是一种规范力,不同的代码会导致不同的行为和后果,所以对代码进行规范就成为必要。与莱斯格的观点不同,斯皮内洛(Richard Spinello)在《铁笼,还是乌托邦——网络空间中的道德与法律》一书中强调,代码具有可塑性和隐匿性,具有潜移默化地规制和塑造人们行为的灵活性,我们应该更多地关注对作为一种约束力的代码的伦理规制,因为网络空间的终极管理者是道德价值,而不是工程师的代码,只有人类的善和道德价值才是实现人类繁荣的基础[7]。瓦格纳(Polk Wagner)认为,软件代码是法律的补充,而不是替代,“代码不是法律,代码符合法律”,网络空间的样态最终取决于我们对自由与平等等基本人权的选择和期望,问题最终落脚于何种代码将支配网络空间,谁来控制代码的运行[8]。
由于大数据信息价值开发依赖具有自主能力的算法来完成,如何设计符合人类道德价值的操作算法变得尤为重要,对操作算法进行监督和审查也将成为未来研究的重点。代码的开放性、公开性、透明性和公正性等问题日渐浮出水面,代码及其伦理约束问题也开始得到人们的重视。如何将诸如自主原则、不伤害原则、有利原则和公正原则等伦理原则嵌入到代码的伦理约束机制体系中,关系到代码的规制架构的搭建等问题。人类的核心价值在应用到当前大数据环境下信息价值开发过程时,可能会遇到伦理规制与技术发展不协调的问题,因此,基本的道德律令怎样才能在人类智能和机器智能之间起到协调作用是一个难点问题。我们可以通过对美国和欧盟信息价值开发过程中技术规制方面的伦理规程进行考察和批判性分析,探索出适合中国国情的对基于代码或算法的自主性技术进行伦理规制的框架体系,并提供切实可行的行动路线图。
目前,学术界关于监控型人工智能系统或算法的道德问题研究才刚刚起步,还没有形成完整的研究框架。随着算法及其依附的智能设备自主性不断增强,社会越来越依赖这些自主和半自主的智能设备做决策,它们的决策和行为可能超出程序员能够设定的范围。米特尔施泰特(Brent Mittelstadt)等人分析了算法时代我们将面临诸如知识的不确定性、决策的不可理解性、证据的误导性和算法歧视等一系列问题[9]。博斯特罗姆(Nick Bostrom)和尤德考斯基(Eliezer Yudkowsky)指出,如果机器学习算法是基于复杂的神经网络或由定向进化产生的遗传算法,那么几乎不可能理解算法为什么或如何根据什么原因来做判断,因为大数据是基于概率的相关性而不是因果性做决策,人类擅长的因果决策模型与机器学习算法的模型在底层逻辑上并不相同[10]。为了避开大数据和深度学习所带来的这种新困境,埃齐奥尼(Amitai Etzioni)等人主张,应当考虑在操作算法(operational algorithm)之外,设置另外一套独立于操作算法的监控算法(oversight algorithm),监控操作算法的具体工作[11]。
代码编写者和算法工程师在编写何种代码、如何使用代码等方面具有特殊的作用,因此他们拥有特殊的专业责任,应履行特殊的伦理准则。哥特巴恩(Donald Gotterbarn)提醒人们,责任感缺失正在威胁着计算机行业,尤其在面对计算机错误时计算机执业者往往将责任推卸给技术,将其描述为程序本身的“bugs”,以此来逃避责任,如果责任逃避不了,一些人会选择分散责任,用失责的分摊手段来抵赖法律的责任[12]。维拉斯奎兹(Velasquez)认为,适当关怀原则和社会成本原则要在供应商和客户之间发挥作用,防止软件使用过程中发生任何可预见的损害后果,并且要促进社会利益的最大化[13]。在伦理准则的制定方面,罗杰森(Simon Rogerson)通过分析结构化项目管理(SPM)的10个步骤,阐明计算机专业人员如何在软件开发过程中认真贯彻“尊重、诚实、无偏见、专业胜任、适当关怀、公平、社会成本、效果和效率”等八个伦理原则的方法[13]。
从以上不难发现,在对代码或算法的伦理规制方面,国内外学者从单纯的代码规制研究转向对代码的伦理规制的研究,并认识到对于代码的规制本质上仍然是对代码编写者和算法设计者的伦理规制。当然,能否实现将道德法则嵌入代码,如何提高算法工程师和程序编写员的道德责任感,以促进其在具体工作中将这些道德价值贯彻到技术工作中,仍需进一步的探讨。
四、信息伦理管理制度
除了上述特定领域中的伦理约束机制,还有适用于所有信息开发活动的一般的伦理约束机制——信息伦理管理制度。学界对伦理管理制度并没有一个明确的界定,我们可以借鉴医疗领域长期以来的实践和信息领域的最新尝试,建构适合大数据信息价值开发的伦理管理制度。
伦理管理制度在医疗领域由来已久,有比较成熟的模式,我们可以对它进行适应性移植,将之引入信息领域。医疗大数据是医疗和大数据的交叉领域,是目前大数据信息价值开发最活跃的领域之一,人们已经开始将已有的医学伦理管理制度延伸至医疗大数据领域,形成了初见成效的医疗大数据信息价值开发的伦理约束机制。医疗大数据信息价值开发伦理约束机制既是一般的大数据信息价值开发伦理约束机制应有的内容,同时也可将其伦理管理经验推广至整个大数据信息价值开发领域。通过借鉴医学领域比较成熟的医学伦理管理制度,总结已有的大数据领域的伦理制度的实践,我们可以建构具有针对性的信息伦理管理制度体系和基本框架。我们认为,信息行业伦理准则、信息职业执照制度、信息伦理委员会和信息伦理培训制度等是其重要组成部分。
(1)信息行业伦理准则(code of ethics)。伦理准则是由行业协会制定的约束本行业从业人员的伦理规范和守则。行业协会制定伦理准则具有悠久的历史,如医学领域。新型的计算机、信息技术、大数据等相关行业协会也开始致力于制定自己的行业伦理准则。美国计算机协会(ACM)是世界上最早制定计算机行业伦理准则的协会之一。早在1972年,ACM就公布了《美国计算机协会伦理准则和专业行为规范》,并随着计算机技术的发展进行多次修订。1999年,美国计算机协会和电气电子工程师协会联合颁布《软件工程师职业道德规范和实践要求》。几乎所有国家的计算机协会都制定了自己的行业伦理准则,如《英国计算机协会行为守则》《澳大利亚计算机学会伦理守则》等。我国互联网协会制定了《中国互联网行业自律公约》,中国计算机行业协会制定了《中国计算机行业协会章程》。我们可以在分析国内外行业信息伦理准则的基础上,结合目前大数据使用和信息价值开发中出现的以及可能出现的伦理问题,对已有伦理准则进行评估,完善相关行业的信息伦理准则。
(2)信息职业执照制度。许多国家在计算机执照考试中纳入了计算机伦理知识。CISSP认证是目前世界上最权威的国际化信息系统安全方面的认证,以考察考生对信息安全技术掌握的全面程度而著称,认证考试涵盖的知识点包括与信息安全相关的标准、法律法规、政策和道德规范,如诚实、正直、公正、合理和合法。国外的许多认证考试涉及计算机伦理、信息伦理的内容,我国相关认证的培训和考试需进一步重视计算机伦理的教育和培训。尽管在一些国家的计算机、信息技术执业认证或职业执照考试包含了信息伦理内容,但在大数据时代如何进一步改善这一做法,尤其在我国政府职能转变的背景下,如何将信息伦理内容嵌入到相关职业执照考试中去,仍是一个值得进一步探讨的问题。
(3)信息伦理委员会。伦理委员会作为伦理管理制度的重要组成部分,在医疗系统中运行比较成熟。随着大数据医疗和精准医疗的迅猛发展,医学伦理委员会的职能开始延伸到医疗大数据的开发和使用等领域。大数据环境下信息价值开发也迫切要求加强信息伦理管理和审查,将伦理审查制度引入信息领域的呼吁和尝试已经出现。查尔斯沃思(Andrew Charlesworth)倡导引入伦理委员会的审查监督模式,对数据信息使用进行伦理审查[14]。一些机构成立了类似数据伦理委员会的组织,例如,受美国自然科学基金支持,由微软、加利福尼亚大学和纽约大学等机构的专家于2014年组建了大数据、伦理与社会委员会(Council for Big Data,Ethics,and Society)。
(4)信息伦理教育培训制度。信息伦理教育和培训制度是大数据信息价值开发伦理约束机制的基本内容。践行大数据信息伦理的前提是具有大数据信息伦理的意识和知识,了解大数据信息伦理的基本规范,这就要求加强信息伦理的教育和培训。教育和培训可以使人们树立大数据信息伦理的观念,为践行大数据信息伦理打下基础。我们可以从国内外基础教育、高等教育和在岗培训中信息伦理教育现状的调查和分析出发,研究信息伦理教育存在的问题,探索在基础教育、高等教育和在岗培训中加强信息伦理教育的有效对策,包括信息伦理教育培训内容的设计,信息伦理内容融入基础教育、高等教育和在岗培训的方式。目前,世界各国在这方面已经做出了诸多努力。
在基础教育阶段,信息化程度高的国家对信息伦理的教育非常重视。从2000年起,美国国际教育技术协会颁布了多项规定,要求所有中小学生应该理解与技术有关的伦理、文化与社会问题,以负责的态度使用信息技术。日本在1999年公布的高中学习指导要领中新增了信息课。我国中小学的信息伦理教育是从21世纪开始实施的,教育部2000年11月颁发《中小学信息技术课程指导纲要》,后又制定了《高中初中信息技术课程标准》《小学信息技术课程标准》,通过在信息技术教育课程中渗透信息伦理教育。
在高等教育阶段,早在1979年拜纳姆(Terrell W.Bynum)就在美国的大学开设计算机伦理学课程。1985年,约翰逊(Deborah Johnson)出版了第一部正式的计算机伦理学教科书《计算机伦理学》。1991年,ACM和IEEE-CS出台了计算机本科课程体系指导大纲建议,其中包括“社会与专业”内容,后又不断完善该大纲建议。我国高等院校的计算机伦理教育始于20世纪90年代初,教育部软件工程学科课程体系研究课程组发布《中国软件工程学科教程CCSE 2004》,提出在“软件工程职业实践”课程中应含有伦理知识。2006年教育部高等学校计算机科学与技术教学指导委员会编制了《高等学校计算机科学与技术专业发展战略研究报告暨专业规范(试行)》,指出高校培养的计算机专业人才应该具备承担社会责任的能力和意识。
政府、公司和科技界也重视对在岗职员的信息伦理培训。1992年,美国计算机学会(ACM)通过了《ACM伦理准则和专业行为规范》,提倡职业伦理的教育,要求开设计算机伦理、信息伦理、网络伦理等课程。例如,爱丁堡大学图书馆建立MANTRA数据管理培训课程模型,针对科研人员专门设置数据共享、保存和许可、数据伦理教育等模块。
五、世界性难题的中国聚焦
大数据环境下信息价值开发的伦理问题和伦理约束机制的研究,与巨型计算时代、个人计算时代和网络计算时代的伦理问题研究一脉相承。同时,大数据技术与传统计算时代的技术相比有了巨大创新,这些技术以各种不同方式加剧了传统的伦理问题,也产生了新的伦理问题。对传统的伦理问题,学界已经积累了比较丰富的理论研究成果,这主要集中在对隐私、网络安全、知识产权、网络自由表达等方面。目前,关于大数据新的伦理问题的研究炙手可热,关注度高的仍然是隐私权和信息安全问题,以及大数据伦理准则、数据戒律、信息权和遗忘权等问题,而代码问题在人工智能伦理研究领域中得到了越来越多的重视。总之,大数据信息价值开发伦理问题和伦理约束机制的研究是一个已引起广泛关注的世界性课题。美国、英国等一些欧美国家在信息共享管理、隐私权和信息安全的保护、信息伦理准则的制定、将计算机伦理知识纳入职业执照考试、伦理教育培训制度、建立信息伦理委员会等方面取得了可资借鉴的经验。
大数据信息价值开发伦理约束机制也是一个基于中国语境的重要问题。对我国而言,大数据信息共享的伦理促进和约束机制是我们应当优先解决的核心问题。信息共享问题是大数据环境下信息价值开发面临的原点式问题,其他问题如隐私权和信息安全等几乎都可以还原为该问题。例如,隐私权问题实质上就是哪些个人信息可以共享,哪些个人信息不可共享,以及个人信息共享的范围和时效等问题;信息安全问题涉及的是哪些信息未经允许不能擅自闯入,等等。解决了大数据信息共享的伦理促进和约束机制问题,就解决了其关键问题,其他问题便迎刃而解。隐私权和信息安全的伦理保护机制和信息伦理管理制度的设计是我国现阶段应当着手应对的重点问题。目前,大数据信息价值开发亟待解决的“显性问题”当属隐私权和信息安全问题,政府、企业和个人也最关心这些问题,并为此做出了许多努力,制定了一些保护隐私和个人信息的法律法规。如何规制大数据信息价值开发代码的伦理约束机制问题则是我们不得不面对的难点问题。代码处于基础性技术层面,对代码的伦理约束很容易被忽视而成为“隐性问题”。尤其在技术价值中立论的影响下,对代码的伦理约束被认为没有必要,也很难凑效。近年来,随着人工智能的快速发展,代码的伦理问题开始引起人们的极大关注,但目前尚未出现公认的明确的研究范式。总的来说,信息价值开发的伦理约束机制,包括具体的伦理约束机制和一般的伦理约束机制,有些源自个人计算时代和网络计算时代,有些是新近提出的,无论哪种情况,这些机制在大数据背景下都需要随着技术的创新不断更新和完善。需要特别强调的是,我们应当密切关注大数据信息价值开发伦理管理的国际经验,根据我国技术文化的特征,聚焦中国问题,探索和完善符合我国国情的维护信息生态和社会公正的中国方案,同时也为解决这一世界性难题提供具有普适性的中国范本。
(注:课题组成员凌昀、简小烜、何瑛和冯琼对本文亦做出了贡献。)
参考文献:
[1]李伦,李波.大数据时代信息价值开发的伦理问题[J].伦理学研究,2017(5):100-104.
[2]Hoven J V D,Weckert J.Information Technology and Moral Philosophy[M].Cambridge University Press,2008:307-319.
[3]维克托·迈尔-舍恩伯格,肯尼思·库克耶.大数据时代:生活、工作与思维的大变革[M].杨燕,周涛,译.杭州:杭州人民出版社,2013:197-201.
[4]Dietterich TG,Horvitz E J.Rise of Concerns about AI:Reflections and Directions[J].Communications of the ACM,2015,58(10):39.
[5]威廉·米切尔.比特之城:空间·场所·信息高速公路[M].范海燕,胡泳,译.北京:三联书店,1999:109.
[6]劳伦斯·莱斯格.代码:塑造网络空间的法律[M].李旭,姜丽楼,王文英,译.北京:中信出版社,2004:110.
[7]理查德·斯皮内洛.铁笼,还是乌托邦——网络空间的道德和法律(第二版)[M].李伦,等译.北京:北京大学出版社,2007:44.
[8]Wagner R Polk.On Software Regulation[J].Southern California Law Review,2005,78(3):457.
[9]Mittelstadt B,Allo P,Taddeo M,et al.The Ethics of Algorithms:Mapping the Debate[J].Big Data&Society,2016,3(2):1-21.
[10]Bostrom N,Yudkowsky E.The Ethics of Artificial Intelligence[M]//The Cambridge Handbook of Artificial Intelligence,Cambridge:Cambridge University Press,2014:316-334.
[11]Etzioni A,Etzioni O.Designing AISystems That Obey Our Laws and Values[J].Communications of the ACM,2016,59(9):29-31.
[12]唐纳德·哥特巴恩.信息科学与专业责任[M]//特雷尔·拜纳姆,西蒙·罗杰森.计算机伦理与专业责任.李伦,等译.北京:北京大学出版社,2010:97.
[13]西蒙·罗杰森.软件开发项目管理伦理[M]//特雷尔·拜纳姆,西蒙·罗杰森.计算机伦理与专业责任.李伦,等译.北京:北京大学出版社,2010:110-111,112.
[14]Charlesworth,A.Data Protection,Freedom of Information and Ethical Review Committees[J].Information Communication&Society,2012,15(1):85-103.
The Ethical Regulation of Information Value Development Big Data:Machanism Frame Work and China Focus