如何不让我们的偏见影响人工智能


本文翻译自英文原文的部分内容:The ethics of artificial intelligence in the enterprise

人工智能越来越多地被用于企业应用,它可以通过解析数据来获得对客户和竞争对手有用的洞见,从而提升竞争优势。但还有一个趋势也正在发生:评估人工智能和企业人工智能算法的道德影响。

就在前几年,麻省理工学院和哈佛大学共同开展了一个耗资2700万美元的探索人工智能道德规范的项目。最近,谷歌在2014年收购的英国私企DeepMind 公司组建了一支新的研究团队,致力于研究人工智能道德规范。近期其他的人工智能道德规范项目包括IEEE全球人工智能和自主系统伦理考察计划、纽约大学AI Now研究所和剑桥大学Leverhulme未来智能研究中心。

人工智能道德规范为什么如此令人感兴趣?这对企业组织意味着什么?

最近发生了一些灾难性品牌名誉受损和舆论抨击事件,它们揭示出将人工智能部署到企业中可能伴随的道德、社会和企业风险。

我们应该如何定义人工智能

一些专家坚持认为,人工智能是指智能水平不亚于甚至超过人类的软件产品,也称为“强人工智能”。但上述新项目对人工智能的定义还包括补充或取代人类决策的机器学习和数据驱动算法。

如果接受后面这个更广泛的定义,那么我们必须认识到,人工智能多年来就已经是计算机时代的一大特征。如今,在大数据、互联网和社交媒体时代,使用人工智能带来的许多优势已经广为人知,并受到普遍认可:人工智能可以为企业提供竞争优势,提升效率,洞悉客户心理及其行为。

运用算法来发现数据中的重要模式和价值,这几乎被一致认为是价值创造中成本效率方面的捷径,特别是在市场导向的竞争环境中。

但人工智能道德规范项目的兴起证明,这些看似有利的人工智能应用可能会产生适得其反的效果。最近发生的灾难性品牌名誉受损和舆论抨击事件揭示了将人工智能部署到企业中可能伴随的道德、社会和企业风险。

企业组织应该仔细思考它们使用人工智能的方式,因为这也会带来商业风险。

企业如果未能发现人工智能算法或机器学习系统开发人员的潜在偏见,就可能会将企业中所有利益相关者的偏见系统化。

人的偏见在算法中无处不在

人工智能算法和我们用来训练这些算法的数据集通常来自人类。因此,这些算法不可避免地反映了人的偏见。

例如,有证据表明,当深色肤色的使用者把手放在传感器上时,某些自动皂液器不会开始工作。这些系统由开发人员用自己的手进行测试,但没有在肤色不同的用户身上进行测试。这个例子说明,人类创造的算法会按照开发者的观点和偏见行事。

这些偏见通常是无意的,但无论造成的后果是否有意为之,犯下上述错误的公司都会面临潜在风险。更重要的是,不管有意还是无意,人造算法可能固有的人类偏见在很大程度上逃避了审查,而缺乏审查则会让使用人工智能的企业面临风险。

企业如果未能发现人工智能算法或机器学习系统开发人员的潜在偏见,就可能会将企业中所有利益相关者的偏见系统化。这会使企业面临品牌名誉受损、法律诉讼、舆论抨击的风险,还可能失去员工和客户的信任。

为了自己和社会的更好发展,企业所做的是否不仅仅是遵纪守法?企业能否自信地说自己对人工智能的使用是公平、透明以及对人类负责的?

人工智能的广泛应用及其风险

存有偏见的皂液器只是一个例子,人工智能算法还可以用于招聘、量刑和安保之中。它们是社交媒体正常或不正常运行的内在因素。

简而言之,人工智能被用于无数的日常和专业工作。它正变得无处不在,而对企业的潜在风险也是如此。

我们面临的挑战是理解算法如何设计和审查,以避免开发者的观点和偏见(不管是有意的还是无意)。这的确是具有挑战性的问题。

有多少CEO真正知道自己所在的公司是如何获得和使用人工智能和人工智能算法的?(许多公司与第三方人工智能解决方案提供商合作。)

企业尽职调查是一项法律要求,这是否包括审查企业如何获得和使用人工智能应用程序?对于使用人工智能的企业来说,尽职调查和合规性的法律定义是否全面?道德规范和企业责任的传统概念在这里是否适用?

想要回答这些问题,企业必须审视和阐明自己在企业道德方面的立场,并运用系统性方法来评估风险。

紧迫的趋势

两个趋势可能加剧对人工智能应用和人工智能用户进行风险评估的紧迫性与重要性。首先,消费者、公民和政策制定者越来越重视与担心人工智能的日益普及和潜在的滥用或意外后果。由此产生的结果是,透明度,公平性和问责制作为竞争性差异得到了更多关注。

最终,我们希望能够确定重要的价值观,将它们嵌入人工智能算法的设计中,了解相关风险,继续验证人工智能实践对个人、企业和社会的有效性。

将最重要的价值观嵌入人工智能之中

解决这些问题的第一步是意识。你的公司如何使用人工智能?谁可能受到影响?是否需要聘请外部专家来进行评估?

阐明你公司的核心价值观也很重要。你使用人工智能的方式是否符合那些价值观?如果不是,如何才能让二者相符?

有资源可以帮助解决这一问题。例如,我是IEEE全球人工智能和自主系统伦理考察计划的执行成员,该计划致力于研究各种人工智能相关应用的最佳实践,提供有助于加强这方面认识和决策指导的资源,制定各类人工智能应用的标准。(正如你可能知道的,IEEE是指电气与电子工程师协会,是最大的技术专业组织,致力于推动技术发展,造福人类。)

一个重要的资源是该计划的“符合伦理的设计:人工智能和自主系统优先考虑人类福祉的愿景”。这份文件已发布了第二版,旨在鼓励技术人员在开发自主和智能技术的过程中,把伦理放在优先考虑的位置。

该计划与IEEE标准协会展开了密切合作。最近,IEEE标准协会开始制定儿童和学生数据管理,雇主透明实践和人类介入式人工智能的标准,确保由人类价值观来引导影响我们每个人的算法开发。

最终,我们希望能够确定重要的价值观,将它们嵌入人工智能算法的设计中,了解相关风险,继续验证人工智能实践对个人、企业和社会的有效性。

值得庆幸的是,这是一个新兴的话题,本文表达的担心和目标仍然是人们积极研究的领域。然而,想要在人工智能时代成为对社会负责任的企业,企业领导者必须意识到问题所在,开始识别企业价值观,将之嵌入人工智能应用程序的道德设计中。