从科技伦理、信息伦理到数据伦理(结语)

人类历史上伴随科学技术的发展,科技伦理面临的主要挑战一直在不断变化,从传统技术伦理到今天的信息(包括大数据衍生的机器学习)伦理的过程中,随着大数据的发展,很多信息包括文字、图片、视频都可以还原为数据。智能手机的普及,让信息与身份能轻易地关联起来。由此衍生的大数据伦理问题可能是从前的推动者始料不及的,并已经到了一触即发的阶段。正如此,作为大数据的早期推动者之一,我觉得责无旁贷,在这本书的结语中,我希望借助自己与复旦大学的王国豫教授的问答让有志于数字化转型的企业可以把这些问题关注起来。

王国豫,复旦大学哲学学院教授,复旦大学应用伦理学中心、生命医学伦理研究中心主任,博士生导师,教育部长江学者特聘教授。兼任中国自然辩证法研究会科学技术与工程伦理专业委员会副主任,中国计算机学会职业伦理与学术道德委员会共同主席,国际人类表型组计划伦理委员会主任。王国豫教授长期从事高科技伦理与治理研究,是国家社会科学基金重大项目“高科技伦理问题研究”首席专家, 国家重点研发计划重点专项“精准医疗的伦理政策法规框 架研究”首席科学家。

车品觉:

什么是科技伦理?人类历史上伴随科学技术的发展,科技伦理面临的主要挑战一直在不断变化,从传统技术伦理到信息技术伦理再到今天的大数据技术伦理,在这个过程中,其主要的发展逻辑和区别是什么?

王国豫教授:

我们通常要区分几个概念,科技伦理和科技伦理学。科技伦理指的是科学技术特别是现代科学技术及其后果中的伦理维度或伦理指向,而科技伦理学是关于这些内在伦理维度的系统反思。我们现在所说的科技伦理面临着重大挑战,指的是现代科学技术中所带来的伦理问题与我们传统的伦理信念和伦理规范发生了冲突,因此, 人们开始认识到科学技术不是中性的,而是有价值指向的,并由此开始了对科学技术中的伦理问题的系统反思。作为一个学科方向, 科技伦理学的历史可以追溯到 20 世纪 40 年代第一颗原子弹的爆炸,由于当初科学家们制造原子弹的目的是为了尽早结束第二次世界大战,而当人们见识到了原子弹的巨大威力后,它所带来的影响远远超过了结束战争,爱因斯坦等科学家开始认识到:“我们虽然赢得了战争,但并没有赢得和平。”人们由此开始了对科学家的社会责任的反思。另外,一系列科技与工程的负面事件的陆续曝光, 比如 1946 年在纽伦堡审判中揭露出来的纳粹科学家开展的惨无人道的人体实验、三里岛的事故、福特平托车事件、塔斯基吉梅毒试验、DDT 应用所带来的环境问题等,一起催生了环境伦理学、生命伦理学和科技伦理学在 20 世纪 60 年代末 70 年代初的兴起。

科技伦理学以科学技术中的伦理问题及其规范为研究对象,它既有对现有的伦理问题的反思,又包含了对未来科技需要建构怎样的伦理规范的探索,因此,随着科学技术的不断发展,在不同的阶段,科技伦理学的研究内容也不完全一样。科技伦理更多的是在伦理规范层面上的探讨,而我们坚守的一些核心的伦理原则,比如人的尊严、自由,对人的尊重,公平公正等,仍然是我们进行伦理规范层面讨论的基础。因此,从信息伦理到大数据伦理的发展,并不是我们的核心价值观发生了变化,而是现代技术的重心发生了变化,研究的内容和关注的问题发生了变化。就此而言,科技伦理的发展逻辑与技术的发展逻辑是基本一致的。

车品觉:

计算机的发展带动了互联网经济,同时也导致了指数级别的数据增长,科技伦理开始受到广泛的考验,随着大数据的广泛渗透乃至与人工智能的息息相关,信息伦理的重要性急剧提升。王教授可否帮我们梳理一下信息伦理在科技伦理前提下的重要性?

王国豫教授:

由于计算机的发展,特别是信息社会、智能社会的到来,科技伦理变得越来越重要。最早的“信息伦理学”源于计算机伦理研究, 诺伯特·维纳(Norbert Wiener)在其控制论思想中便有所提及, 但在那个时代并没有引起很大关注。20 世纪 70 年代以后,随着科技伦理学的诞生,美国教授沃尔特·曼纳(Walter Maner)提出“计算机伦理学”(computer ethics)这一术语并开始引起越来越多的关注。早期的计算机伦理学主要关注的是计算机应用所带来的 软硬件方面的问题,包括黑客问题和计算机病毒问题等。随着互联 网社会的到来,出现了网络伦理问题。如今的信息伦理学涵盖了计 算机伦理、互联网伦理,但随着人工智能和大数据的迅速发展,个 人的隐私问题、人的身份问题、虚拟现实问题等将会更加突出,这 些直接关系到我们的生活和生存。可以说,人工智能、大数据对于 我们这个时代有多重要,相应的人工智能和大数据的伦理研究就有 多重要。

车品觉:

刚才您讲到科技,您认为科技是从什么时候诞生的?从历史沿革的角度,在什么样的情况下一些技术或者说经验才能被称为科技?或者您认为科技的内涵与定义是什么样的?

王国豫教授:

这是一个很好的问题,我们现在说 的“科技”指的是technology。“technology”这个词在 18 世纪出现的时候指的其实是工艺学,与我们现在所说的科技还不是一回事,也不是指我们通常说的技术。技术这个词在古希腊被称为“techne”(技艺), technology 的词根是 ology,也就是说它已经不是指的经验层面的技术,而是指包含了系统性知识的技术。随着技术本身的发展, 这个概念也发生了演变,但我认为汉语中的科技一词很好地反映了 现代技术的特征,即现代技术是建立在科学知识的基础上的,是科 学与技术的融合,也可以称之为技术科学,或在国外有人称之为“技科学”(techno-science),还有一种称谓是“高科技”(High- tech)。简言之,科技指的是基于科学的技术或者基于技术的科学。

车品觉:

如今,我们强调人工智能是一种科技而非单纯的技术!按照您刚才讲述的科技的定义,人工智能实际上是基于数据由诸多技术综合发展衍生出的一种科技,那么,数据在人工智能伦理问题中扮演的是什么角色呢?

王国豫教授:

人工智能包含很多内容,我自己认为人工智能是一个系统。如果将人工智能归于算法的话,那么,现在的算法恐怕更多的是由数据驱动的。图灵奖获得者詹姆斯·格雷(James Gray)认为现代科学已经进入了第四范式,即数据驱动的科学研究范式,也就是说,我们的认知已经建立在数据的基础上,数据成了科学研究的本体,也成了科学研究的引擎。对于人工智能伦理研究来说,大数据也就成为人工智能伦理关注的主要对象。

车品觉:

刚才我们谈到,人工智能作为一种新科技,其面临的伦理问题跟之前的科技伦理必然有重大的区别。在人工智能条件下,对于伦理研究者来讲,科技伦理的研究难度会不会更大?人工智能伦理本身与其他科技伦理是否有很大的区别?或者人工智能的伦理研究也能够纳入到整体的科技伦理研究的统一框架中去?

王国豫教授:

这要看我们怎么定义人工智能。目前的人工智能还是弱人工智能,在我看来,这个阶段涉及的伦理问题,比如隐私问题、社会公正问题等还只是一般的科技伦理问题。但是,随着人工智能的发展,特别是其自主性越来越强,有了表达情感和自我反思的能力,

达到了强人工智能的水平,那恐怕这些问题就不是一般的科技伦理问题了。与其他科技相比,虽然所有的科技都增强了人的能力,部分地替代了或者延长了人的器官,而人工智能涉及人的大脑,大脑跟别的器官不一样,它涉及我们讲的“知情意行”A,所以这里涉及  的不仅是一般的科技伦理问题,其实它已经触及我们的生存哲学, 涉及什么是人、什么是自然、我们与机器或者机器智能的关系等问题。虽然目前的人工智能也提出了一些特殊的问题,比如,自动驾驶汽车的归责问题,算法歧视问题,但是相对来讲,这些问题还是可以在现有的科技伦理的研究框架中讨论的。

车品觉:

如果把这种能力用在战争上,那岂不是很难区分到底是谁做了决策和命令,发动了战争?因此,是否可以说人工智能应用在军事上的伦理问题就更严重了?

王国豫教授:

这就不仅仅是人工智能伦理的问题了。将人工智能用在军事上,这涉及很多军事伦理问题,特别复杂,因为这涉及关于战争的正义与非正义的讨论。

车品觉:

不论从新闻热点还是从我们的深入调研的经验来看,一些互联网巨头都存在滥用数据与人工智能技术的情况,对此是不是应该出台相应的法律法规来进行约束,或者您认为有什么好的制约方法? 例如,有些公司利用大数据对消费者进行歧视定价和价格欺诈。另外,外卖公司通过数据分析和检测,跟踪外卖员的派送轨迹及效率。还有一些打车平台也会利用数据来进行一些设计,导致现在一个近距离或者低价的打车需求方很难打到车。类似这样的对数据与算法的滥用会不会愈演愈烈,又该如何对这种种的滥用行为进行监管和控制?

王国豫教授:

关于这个问题,我觉得它不仅是大数据的伦理或者是人工智能的伦理问题,而且也是企业伦理问题。比如,目前大家讨论得比较多的关于外卖小哥的问题,这当然不完全是单纯的技术问题,我们不能把人工智能算法从社会系统中割裂出来,所以我一直认为这是一个人工智能系统的问题。人工智能系统不仅是技术系统,而且还存在于一个“技术—社会系统”中。算法伦理问题仅仅是表象,其本质是一个系统性的伦理问题。当然,其中也包括企业的道德和伦理问题,因此监管无论如何都是是必须的。

车品觉:

我同意您的观点,数据和算法是一种工具,它让企业能够更好地进行管理,提升效率,但是最终却走向了追求效率的极端,出现了内外部科技应用的伦理问题。所以,从根本上讲您是否认为上述大数据和人工智能的伦理问题要归根到企业的商业道德上来?

王国豫教授:

从某种程度来说,的确如此,但还不仅仅关乎企业的商业道德,因为资本是逐利的。就像卓别林的作品里表现的那样,资本家把人当作机器,不停地通过流水线赶着工人干活,人成了流水线上的一个“螺丝钉”,在流水线上不停地运转。在现实生活中工人变成了外卖员,流水线则成了一个算法,但是实际上它还不只是算法的问题,它跟资本与企业的运营模式也是相关的。

车品觉:

那么您认为,大数据与人工智能技术伦理的塑造与管制应当遵循什么样的思路?

王国豫教授:

大数据与人工智能伦理的研究一般来说有以下三条路径:

第一,通过对人工智能和算法工程师的教育,提高他们的道德敏感性,然后使其自觉地约束自己的行为。

第二,通过政策和法规来进行约束。

第三,通过算法工程师和伦理学家的合作,在算法的设计和编程阶段就将伦理方面的规则嵌入人工智能的系统中去, 有意识地防范如算法歧视那样的问题的出现。

车品觉:

您觉得在大数据的发展过程中,会不会出现数据垄断的情况, 或者说是否已经形成了数据垄断?数据垄断的特征是什么?如果这种数据垄断继续发展下去,会对人类社会的发展造成什么样的影响?

王国豫教授:

当下,数据已经出现垄断现象,就像圈地,人们今天是圈流量、圈数据。数据现在已经变成一种资源。数据垄断就相当于资源垄断,而资源垄断必然造成社会的两极分化。而且我认为数据垄断会比一般的土地、原材料等资源垄断更严重,因为如今,掌握了数据就等于掌握了权力,就可以对行业与社会产生很大影响,其中也包括人的行为和自由。对于国家来说,数据垄断可能会破坏现有的社会秩序,所以,这是一个很严重的问题。

车品觉:

数据垄断和其他形式的垄断有什么异同呢?在我看来,数据垄断比较特别的地方在于:数据垄断出现之后,它会形成一种闭环, 也就是一种自我循环和加强的机制。比如,当消费者在某个应用中上传了数据之后,就不得不更加依赖该应用,如此一来,应用开发者又拿到更多的数据。这样的一个不断循环、扩张的过程是否就是您刚才举例讲的:“圈地”会圈得越来越快。与其他垄断形式相比,数据垄断还有没有其他重要特征?

王国豫教授:

我认为数据不仅仅是一种资源,更是一种权力,所以数据的垄断已经不是控制数据的问题,而是控制人。所以,有人曾预测,未来的技术精英可以控制一切!因为他们掌握了足够多的数据。

车品觉:

我想补充一点,除了您刚才讲的数据对个人行为的影响能力以外,当收集到的数据足够多时,数据会获得另一种能力,那就是数据之间的融合能力。数据具有极强的网络效应,能够相互叠加赋能,数据之间的关联会成倍地加强数据垄断的效应。美国反垄断法已经发展了几十年,我们国家也有了反垄断和反不正当竞争的相关法律,而面对数据垄断的上述特点,相关的法律法规是否能够满足数据垄断治理的需求?

王国豫教授:

这方面我不是非常清楚,我个人认为的确需要对市场的秩序进行一定程度的规范,因为,任何一种垄断对整个社会制度的生态来讲都是不利的。美国已经有很多先例了,最后的结果是那些大公司最后都被拆分了。

车品觉:

反垄断的法律和市场体系规则的建立其实也隐含了更复杂的伦理问题,互联网巨头公司内部数据分享机制所涉及的反垄断问题就是一个很好的例子。如今,在一些大型集团公司中,数据在其各分公司之间是共享的,但是当各个分公司在收集这种数据的时候,也很少告知消费者潜在的内部共享对象,消费者不知道他们提供的数据会被该公司的其他分公司或部门使用,以及需要承担多少数据风险,也就是说,这其中的数据透明度是不够的。

王国豫教授:

这个问题就涉及数据的权利归属问题,就是说企业掌握了用户的数据后,有没有权利把这些数据交付给第三方使用。因此,数据分享涉及数据的生产者、数据的拥有者和数据的使用者三个方面,妥善处理好三方的关系很重要。

车品觉

这种数据的透明度是否属于科技伦理的基本要求呢?是否需要让数据生产者了解自己所产生的数据的流向?对于个人来讲,这是不是一个最低限度的权利?我们又该如何保障这种权利?

王国豫教授:

数据主要包括个人数据、企业数据和国家行政方面的数据,其中个人数据还包括个人的生物数据、行为数据等。从原则上来讲, 没有授权,企业是不可以随意分享其用户的数据的。所以,数据流向的透明度是个非常值得关注的一个方面。

车品觉:

大数据伦理是一个值得长期关注的问题,大量的数据驱动技术已经融入了我们每天的生活中,在此基础上,相关的技术对不同用户产生了差异化的对待。但可能更关键的问题是,数据汇聚的悬殊造成的不平均状态,这是我们从前未曾经历过的难题!