AI道德算法

    ——“给人工智能一颗良芯”

欢迎访问

AI道德算法

当前位置: 首页 > 研究成果 > AI道德算法 > 正文

陈自富:边界与责任——对Facebook数据泄露事件的反思

2018年05月03日 13:38  点击:[]

   

今年3月中旬,美国《纽约时报》和英国《卫报》报道一家名为“剑桥分析”的公司,未经许可收集了超过5000万Facebook用户的信息资料,通过工具分析这些数据并给用户画像,用于在美国大选中推送精准的政治广告,从而影响美国选民在竞选中的投票。由于Facebook作为社交网络巨头的影响力,加上白宫前幕僚长班农曾担任剑桥分析公司的母公司董事,数据泄露事件中又有俄裔心理学家深度参与,使得这起“泄露门”事件在美国掀起了轩然大波。

Facebook事件暴露的对生态链中数据分享机制的监管缺位,目前来看已经是一个迫切需要着手考虑和采取行动的问题。

当代信息社会的一个核心特征就是基于计算机、智能手机、物联网等信息采集和加工设备的万物互联世界,这已经成为人类生活的基本背景,对人类行为数据的产生、采集和存储无所不在。

同时,互联网经济天生具有垄断和平台化、中心化的特点,用户从一 开始,就在与互联网各大平台的博弈中天然处于下风。但这个观点只反映了硬币的一面:互联网提供的服务确实对人们有帮助;但硬币还有另一面:用户可以选择的互联网平台确实不多,而且平台对于数据和隐私的保护,并没有严格的道德约束和第三方监督机制,很多用户是“不得不”而不是“愿意”用隐私来交换便捷。

不可否认的是,无论是各国监管当局还是互联网企业在数据隐私问题上都一直在探讨如何更好地保护用户,但最终都囿于两个关键问题而很难达成广泛共识:监管部门担心过度管制会使行业失去繁荣,新进入者大大减少,从而导致本国在全球经济竞争中错失良机,而互联网企业虽然想制定和遵循更广泛的行业自律性要求,但商业化却是推动互联网技术发展和应用的重要推手,面对公司市值降低和股东回报的压力,企业很难自觉自愿地设定和执行严格的用户隐私保护政策。类似于谷歌、Facebook、这样的中心化平台,其以广告为核心的商业模式是基于用户个人行为数据的精确分析和画像来提高广告转化率,在这种情况下,用户不让渡个人数据的若干权利给平台的话,企业很难获得商业资本投入来为用户提供便捷高效的服务。

看来似乎我们陷入了这样的一种困境:商业化投入、技术进步带来的便捷和用户权利(如数据隐私权、知情权、选择权)之间相互制约,难以找到平衡点。

但事实并非如此,互联网社会并非是凭空产生的空中楼阁,它仍然与传统社会共享不少共同的主题,例如对边界与责任这两个主题的探讨将有助于推动解决隐私、便捷之间的二难困境。

在传统社会,隐私往往是个人与社会交往的边界,也是一种特殊的社会安排,即个人控制谁可以在物质和信息层面上与其接近,长期的生活历史经验告诉我们人类需要有一些隐私权比完全没有要好,但隐私权并不是生命权这样的绝对自然权利,在不同的社会文化场景中,并不存在绝对、抽象并至高无上的个人隐私权,这里的关键在于如何确定用户隐私数据的使用边界并让数据的托管者能按照这个边界条件来使用它。Facebook“泄露门”事件中,至少超越了两个重大的边界:个人数据被用于政治竞选的精准广告,Facebook的生态链中有企业将个人用户数据用于影响政治选举结果,前者超越了用户设定的边界,后者超越了社会对企业数据应用场景设定的边界。

互联网的本质是连接及其产生的人和组织之间的关系,但其连接的场景和规模比传统社会要庞大得多,因此如何确定用户让渡个人数据的某些权利也比传统社会复杂,但这并不意味着传统的边界设定规则在互联网中并不适用,有些原则就在两种不同的社会背景都适用:为改进产品或服务水平,提高用户体验的个人数据运用,滴滴和Uber都需要用户的位置数据;为公共利益需要开放的个人数据,例政府提供的政务App中需要对用户身份进行实名认证,需要身份证和个人头像;针对特殊群体利益需要开放的个人数据,老年人专用手机中包括自动报警、定位、摄像头等特殊功能。

互联网的连接场景与传统社会相比是开放和动态的,因此某种程度上用户隐私边界的设定是一个与便捷、效率与信任相权衡的过程,用户多大程度上愿意让渡自己的一些隐私数据,这取决于数据使用者的责任及其履行,监管部门可能无法穷举各种场景来设定边界在哪里,但是却可以制定用户和互联网企业之间如何协商数据使用的原则,这些原则未必都以法律形式体现,但有效的伦理规范和原则只要有利于大多数利益相关者,那么对这些原则的执行则会是自愿的,也就成为每一个参与方应履行的责任。因此在明确若干制定、协商原则之后,最重要的主题就是如何让各方理解自己的责任并切实履行,如何让不尽责的企业受到商业伦理上的谴责并承担后果,这就是基于原则和承诺的责任主题。

在隐私和便捷问题上,有以下原则可以考虑:第一是“若非必要,切勿使用”,除上述的若干公认的情形,不必要的数据采集和运用都应禁止;第二是选择性加入优先,即在搜集用户数据时,应由用户来主动选择加入,而不是默认用户许可后让用户选择性退出;第三是“举证倒置”,即信息的收集方和使用方有责任定期公布数据使用情况,并接受第三方审计,以避免用户和企业之间的不对称地位导致的信息不对称;第四是“算法透明”原则,即企业应公开用户数据的具体加工方式和利弊,例如用户画像、智能推荐、动态定价等;第五是公正原则,即企业在运用算法加工数据并应用到各种场景中时,应遵循传统社会中的公平正义,不得因用户身份或行为数据导致歧视、伤害和损失。

按照以上原则对互联网企业的责任要求,应作为涉及隐私、信任和效率之间权衡的基石,当企业违反这些伦理规范时,需要监管部门、股东、媒体、用户共同监督,促使企业切实履行,Facebook的数据泄露事件也提醒了我们,互联网作为新的虚拟社会形态有一定的特殊性,但在商业伦理上仍应共享传统社会中一些共同的价值观。

作者:陈自富      来源:学习时报    发布于2018/05/03

链接:http://www.studytimes.cn/zydx/KJJS/KEJYSH/2018-05-02/12663.html

   

下一条:孙保学:自动驾驶汽车事故的道德算法由谁来决定

关闭