AI社会伦理

    ——“给人工智能一颗良芯”

欢迎访问

AI社会伦理

当前位置: 首页 > 研究成果 > AI社会伦理 > 正文

孙保学:人工智能的伦理风险及其治理

2018年02月24日 15:17 孙保学 点击:[]

  

目前,人工智能技术已经在各行各业和人们的日常生活中被广泛应用。在语音技术、图像技术、视频技术、人机交互、知识图谱和增强现实等领域,人工智能的应用使得效率大大提升。人们在智能手机或电脑上获取的新闻、广告、音乐和视频等,很多都是智能搜索算法根据用户的浏览习惯进行的个性化推荐;招聘网站能够根据客户的需求自动匹配适合某个岗位的求职者;很多体育新闻和财经报道其实是由人工智能系统写出;……对于人工智能对人们生活的重塑,社会舆论和学术界都给予了很多关注,但主要是集中在产业发展和就业影响方面,缺少从哲学尤其是伦理学视角来思考人工智能技术风险及其治理的研究。

一、智能算法影响下的未来社会

我们正加速进入人工智能时代。计算机技术和互联网技术曾先后主导了两次信息技术革命。当前,我们正身处以人工智能技术为核心的第三次信息技术浪潮之中。它的突破性变革表现在:一方面,从技术(软件和硬件)的演进和发展的角度看,不仅计算机的运算能力较几十年前取得了飞速提升,而且以深度学习为代表的人工智能算法使人工智能的自主学习能力大大增强。学习算法具备了更强的自主能力,能够自行学习和编程,处理越来越复杂的任务;另一方面,从外部影响因素来看,大数据时代的到来使机器学习的复杂算法得以流畅运行和应用。同时,商业创新和投资应用的推波助澜使各项技术得以快速迭代,像机器翻译、语音识别、医疗诊断、无人机和自动驾驶等技术越来越多地嵌入到人们的日常生活中。

不过,人工智能技术给人类带来便利的同时,也给人们带来很多担忧。人工智能在越来越多的领域开始超越人类智能,人们对于它的未来发展感到忧虑和恐惧。很多人担心人工智将来会抢走自己的工作,最终引发全球性的失业潮,给社会带来不安和动荡。假如人类的工作真的都被智能机器所接管,那么人类的价值将会如何?人类将何去何从?不过,在技术专家看来,情况并没有如此糟糕。按照他们的预测,在人工智能领域潜藏巨大的市场,绝大多数工作确实会消失,但同时也会创造出更多的新型工作。事实上,上述担忧并不会妨碍产业界追求更高商业利润的脚步;同样,人类对未知领域的好奇心也会驱使着科学家们不断地探究人工智能的极限和边界,上述担忧也不会阻止科学界追寻终极算法的可能。

人工智能对人类生活的影响与日俱增,并且覆盖领域正加速扩展并不断深化。长远来看,人工智能的广泛应用将带来巨大的社会效益。随着智能设备被越来越多地应用于社会,人类也将从机械的重复性劳动中解放出来,完成那些复杂、精密或危险的任务,成为人类的得力助手。不过,随着人工智能技术的不断迭代和大规模应用,人类与人工智能在交互过程中的冲突也将会日益增多,越来越多的伦理挑战将逐渐凸显出来。

二、人工智能引起的主要伦理风险

从根本上说,人工智能的伦理问题主要由算法的自主学习能力所衍生出来。下文将从数据隐私、安全威胁、算法歧视和人工主体权利四个方面简述人工智能所带来的伦理挑战。

第一,隐私泄露。在某种程度上,新一轮人工智能浪潮的到来是由数据驱动的,数据是未来社会发展的“新石油”。但是,在对数据资源进行价值开发过程中,隐私问题可能成为最突出的伦理挑战。在信息时代,各种网站和APP都可以作为平台收集数据,利用脚本跟踪并记录用户的一举一动。数据挖掘技术能够在各种看似不相关的数据中找到有价值的信息。人们的各种身份信息、网络行为和生活轨迹都有可能被用来进行商业价值开发。人们在网络空间免费获取各种便利的同时,是以让渡自己的一些个人数据信息为代价的。为迎合用户需求,智能设备会提供所谓的“个性化定制”服务,根据使用者的习惯和偏好分析和确定出使用者的行为特征,自动调整算法参数,从而能够进行选择推荐和事务管理。但是,这些信息在被数据平台收集并存储到云端后,一旦出现防护漏洞就有可能造成大面积的隐私泄露。云计算和数据共享技术的广泛应用更是加剧了这种隐私泄露的风险。信息技术的创新使社会变得更加开放和透明,但同时也使个人隐私渐渐成为一种稀缺资源。

第二,安全风险。从近期看,人工智能所带来的伦理上的安全风险主要表现为三个方面:一是技术滥用。人工智能的自我学习能力对于数据的需求是无限的,为了不断提高性能表现,算法对于数据的挖掘将变得越来越精细和深入,这可能会侵入到受保护的信息。而且,黑客会利用人工智能技术非法窃取云端或平台的数据;二是技术缺陷。不成熟的技术更可能导致智能系统的异常运行,加之算法决策的“黑箱”特征导致的不透明性和解释性困难,使得算法决策的归责变得困难,这同样埋下了安全隐患;三是管理缺失。如果智能系统的安全防护措施不到位,很可能被非法侵入和操控,从而威胁公共安全。从长远来看,随着人工智能的发展和演化,人工智能有可能发展出自我意识和自由意志,那么人工智能威胁到人类生存不是没有可能。在学术界,像库兹韦尔和霍金都曾表达过这种担忧;在产业界,像盖茨和马斯克等人也都认为,不加约束地发展人工智能技术会存在极大的安全隐患。

第三,算法歧视。表面看来,算法作为一种数学结构,具有客观的和确定性的特征。因此,算法决策应该不大可能会受到人们的情感和价值观的影响。但是,实际情况却恰恰相反。人工智能系统基于算法模型和数据学习人类的行为数据,进而做出分析和预测。不过,训练数据可能并不真实地反映客观的实际情况,它们有可能受到一些对抗样本的干扰或污染,使其做出一些错误决策。而且,在这些数据中也可能潜藏着不易被人们察觉地价值偏好或风俗习惯。在特定群体中存在的种族歧视或性别歧视,最终都有可能被反映到数据中,从而被机器学习所继承。这种歧视往往很难通过技术手段消除,从源头上甄别哪些数据带有歧视性是极其困难的。为了解决某个问题或任务,不同的算法工程师会设计出不同的算法,它们在细节上渗透着设计者的主观特质。如果在算法设计中暗藏某种歧视,那么它可能要比潜藏于数据中的歧视更不利于社会公正。

第四,人工主体权利。人工智能在代替人类进行决策或行动时,需要遵循人类社会的规则,符合法律和伦理的要求。否则,它的应用和推广有可能会面临社会的民意挑战和舆论压力。在未来社会,我们将如何看待人工智能主体或机器人呢?是将它们视为人类的伙伴,还是视其为低人一等的机器?与被人类驯化的宠物和家畜相比,它们的地位会有所不同吗?它们是否会获得法律上和道德上的主体地位呢?这些问题看似遥远,但在我们身边的确已经发生。2017年10月25日,机器人Sophia(索菲亚)在沙特获得国籍,成为世界上第一个获得公民身份的机器人,由此引发热议。将来,越来越多的安保机器人、护理机器人和家用型机器人将会出现在人们的日常生活中,它们在与人交互的过程中难免会碰到各种法律、伦理问题。人工智能主体的违法和不道德行为究竟该如何处理?假如人工智能没有财产权,那么它们是否有资格或有能力像人类一样承担责任呢?如果人工智能获得主体地位,它的责任和义务与人类是一样的吗?如果人工智能的决策算法由人类设定,或者人们对智能机器的决策形成强烈依赖,那么作为人工智能的使用者或拥有者是否应当承担某种监护责任呢?上述问题都是政府相关部门、公众、学术界和产业界应该深入思考和讨论的。

实际上,如果人工智能不能赢得公众的信任、消除人们对其潜在风险的担忧和恐惧,其应用和推广势必会遭遇阻力。因此,有关人工智能的伦理风险的研究应尽快提上议事日程,立法和行政机构要尽快制定相关的法律法规和政策,以此指导和规制人工智能技术良好发展,产业界要设计出符合政策和法律的人工智能产品,防止其被误用和滥用。

三、人工智能伦理风险的治理机制

在未来社会,人类与智能机器共存将是一种新常态。那么,如何尽量地减少人工智能在设计、研发、生产和使用环节的伦理风险呢?事实上,实现伦理治理主要依靠良好的制度设计和政策引导,而非单纯地依靠道德倡议就能够凑效。总体而言,我们需要从立法、监管、产业、技术和国际合作做出努力,采取必要的应对措施,减少或避免伦理冲突发生的可能性。

第一,要建立和完善智能社会的政策和法律体系,加强人工智能开发和应用的顶层设计。应对伦理风险之所以要结合立法工作,是因为伦理治理和法律治理往往是相互关联的。康德曾指出,“法律是道德标准的底线”。法律作为最低要求的道德,能够为合乎伦理的人工智能的良序发展提供方向上的引导。政策、法律和法规应当促进人工智能产业的发展,不妨碍人工智能产品的安全性的提升。在一些特殊领域,法律法规要明确人工智能主体的权利和义务,避免威胁到人类权利。

第二,要尽快制定人工智能产业的安全标准,推行安全认证制度。人工智能产品要符合社会需求,赢得公众的信任,但这要建立在它们具有非常高的可靠性和安全性的基础上。要尽最大可能避免安全事故的发生,不断提高人工智能产品的安全系数,只有经过严格测试达标的产品才能投放市场。与此同时,要对人工智能的技术开发人员进行伦理培训。这是从价值嵌入的角度考虑问题。要加强相关从业人员的道德教育,使人工智能在研发和设计阶段就接受伦理准则的约束,使得制造商不因商业利益的驱动而做铤而走险之事。

第三,要建立和健全人工智能的监管体系。这种监管体系需要从两个方面展开:一方面,政府相关的职能部门要制定针对不同行业的监管体系和标准,对人工智能产品从设计、研发、数据采集、市场推广和应用等环节进行全方位监管。要定期审查社会上应用的人工智能系统是否符合道德标准。人工智能应用软件要进行特定的技术检测,对于违规软件实行整改或下架处理,使其退出市场。这种以惩戒为主的外部约束有利于人工智能产业和市场主体加强自律。另一方面,着眼于人工智能的运行和应用层面,要研发类似电子警察的人工智能系统,即用人工智能监管人工智能,防止人工智能技术被非法利用或偏离正常运行。

第四,要强化代码规制和算法设计的管控,研发和应用受控型人工智能。在一些人工智能的应用领域,算法决策往往涉及道德责任的归属和认定,而算法决策过程的不透明性可能意味着责任追溯的困难。因此,只有那些具备更高可追溯性的人工智能系统才是有发展前景的,只有那些符合社会的道德标准和更具人性化的智能设计才具有广泛的市场可接受度。就目前来讲,人工智能的第一属性是技术或工具,而非社会主体。人工智能的算法设计务必要合乎伦理规范和法律要求,不能侵害人类权利。

第五,要加强国际合作,共同推动人工智能的全球治理。随着科学技术在全球范围的广泛应用,人工智能研究的科学共同体、跨过公司和国际行会组织等往往是超越国界的,其影响是广泛和深刻的。虽然各国之间有竞争和差异,但是所面对的问题相似性和共性居多。人工智能的治理已经很难仅仅局限于本国本地取得良好的治理效果。人工智能风险治理的框架要在一些基本问题上达成国际共识,才能更好地服务于全人类的福祉。

(孙保学,湖南师范大学公共管理学院暨人工智能道德决策研究所讲师。本文为国家社科基金项目“人工智能的道德决策研究<17CZX019>”阶段性研究成果/责编刘玉霞)

原文载于《团结》,2017年第6期。

  

上一条:陈自富在《学习时报》发表文章“智能社会中的人类责任” 下一条:陈自富:人工智能观:工程观点与科学观点

关闭