用AI预防犯罪,真的有效吗?

本文翻译自英文原文的部分内容:Stanford Researchers Warn U.S. – Cops Already Using AI to stop Crimes before They happen (Sep 2016 Claire Bernish )

人工智能技术可能为滥用权力提供很大空间

Pre-crime是科幻小说作家菲利普·K·迪克(Philip K. Dick)发明的一个词汇,大意是指在罪行发生之前,利用人工智能来发现和阻止其发生。现在,这种技术已经成为现实,并且很可能在15年内成为警方的常用手段。

“多座城市已经开始利用人工智能技术来保障公共安全,”一支学术研究团队在题为《2030年人工智能与人类生活》(Artificial·Intelligence and Life in 2030)的报告中写道,“到2030年,北美地区的城市都将普遍的在极大程度上依赖于这些技术,其中包括能发现犯罪征兆的监控探头、无人机和预测性警务应用。”

这是斯坦福大学“人工智能百年研究”项目(AI 100)的首份报告。设立该项目的目的在于,鼓励人们探讨人工智能技术日益普及带给人类社会的利弊。在执法领域,淡化人类因素未必会有好结果。

例如,学者们指出,人工智能已经被用来扫描和分析Twitter及其他社交平台,以发现那些容易受到宗教极端思想蛊惑的人。这种貌似出于善意的应用正变得日益广泛。

“执法机关越来越想通过社交媒体提前发现破坏性事件的犯罪计划,通过监视大规模集会的活动情况来评估安全态势,”报告写道,“执法机关在人群模拟方面做了大量工作,以便弄清楚如何控制人群。同时,人们也担心,执法机构可能会把手伸得太长,利用这类工具侵犯公民隐私。”

警方在罪行实施前预测犯罪的做法,不仅仅会使人们的隐私面临被侵犯的危险。这份报告还提到了另外一种可能性:人工智能导致执法机构“在某些时候变得专横霸道、无孔不入”,尤其是在技术不断进步,并被应用于众多不同领域的条件下。

人工智能可能会让社会变得更糟

虽然“人工智能技术(视觉分析、语音分析和步态分析)可以帮助面试者、审讯人员和保安发现可能的欺骗和犯罪行为”,但人工智能技术在执法监控方面的潜在应用,比如用于监控摄像头,为滥用权力提供了很大的空间。

例如,警方的监控探头发现,某人似乎不应该出现在某个地方,人工智能可能据此认为他企图闯入商店或民宅实施盗窃,于是会派遣警察到场,而那个人也许只是迷了路,或者只是想到一个新的地方散散步。如果我们不是生活在警方暴力执法成风的年代,上述错误不会危及人生安全。但在犯罪预测过程中淡化人类因素后,必须考虑到警方暴力执法的可能性。

除了限制活动自由和可能导致非犯罪情境升级为犯罪情境以外,对某人出现在某地的臆断还可能对此人和其邻里造成负面影响。

主张反对警方军事化的拉德利·巴尔科(Radley Balko)在《华盛顿邮报》的一篇报道中写到,有好几个美国城市的市政当局已经开始向一些人发函,而原因仅仅是这些人去过警方认为的卖淫活动高发地——而这种行为但没有任何法律依据。这种臆断难以真正区分无辜者和罪犯,并且进一步加剧了对某些地区及其居民的偏见,而不是解决问题本身。

“机器学习大大有助于预测罪行可能发生的地点和时间,以及嫌疑犯的身份,”报告写道,“但和电影《少数派报告》中的情节一样,预测性警务工具也可能误把无辜者当成嫌犯。不过,要是使用得当,人工智能预测工具可以真正消除或者减少偏见,而不是加剧偏见。研究工作和资源配置应该向这个方向努力。”

尽管这听起来很诱人,但在消除人类偏见的同时,也排除了人类的判断,其利弊都颇为显著。虽然人为判断失误无疑是美国警方暴力执法现象加剧的主因,而机器辅助预判并调遣警员前往则是建立在犯罪即将发生的假设基础上,可是这种假设到底准不准确呢?

无论学者们对人工智能辅助执法的描绘有多么美好,这方面的最大实验之一已经证明人工智能辅助执法的效果很差。

芝加哥警方与伊利诺伊理工学院合作,在2013年开始实施战略目标名单(Strategic Subjects List),利用“计算机算法,根据缉毒逮捕的记录、加入帮派的经历和上次被逮捕时的年龄等数据点,对最有可能成为罪犯或者枪支暴力受害者的人进行识别和排序”。Mic网站报道称:“在名为‘预测执法’的实验中,计算机算法最初识别了426人,警方说他们已经把这些人作为预防性社会服务的目标。”

但这项实验非但没能证明人工智能在预防暴力犯罪方面的功效,最终反倒以失败收场。

对于谁上了这份黑名单和这份名单被如何使用的疑问,芝加哥警方总是遮遮掩掩。尽管警方声称会开展社会服务,以解决预测未来犯罪活动所带来的潜在问题,但真实情况并非如此。

兰德公司(RAND Corporation)对战略目标名单的研究发现,那些被计算机算法不幸选中的人,他们之后被逮捕的次数较多。虽然研究作者不是十分清楚为什么会这样,但似乎人们的偏见在其中发挥了重要作用。

“当发生枪击案、警察展开调查时,他们会先从该区域上了黑名单的人着手。至少在某些情况下是如此。”研究首席作者杰西卡·桑德斯(Jessica Saunders)说。

兰德公司的研究发表时,芝加哥警方已经采用了新版的战略目标名单,但有几个问题仍然没有得到解决,包括没有指导警察如何与名单上的人互动,比如应该对他们采取哪些社会服务。这项研究发现,一般来说,警方只是更多地监督和关注目标对象,而众所周知,这种状况助长了警方使用暴力以及限制公民权利与自由的行为。

 “接触更有可能涉入暴力的人,这未必是减少暴力的有效方法,尤其是如果在交流以及随之而来的问题上缺乏进一步的指导,效果就会更差。”这项研究写到。

人工智能预测带来的问题并不局限于政府执行部门。美国的刑事法院利用Northpointe算法来“预测罪犯以后再次犯罪的可能性”,但和芝加哥的情况一样,Northpointe的应用过程并不顺利。

Gawker网站报道称:

民间新闻网站ProPublica发表了一篇调查文章,分析了Northpointe预测再次犯罪的有效性……发现在不考虑性别和犯罪记录等因素的情况下,黑人被认为在未来犯下暴力罪行的可能性比其他人高出77%,犯下任何罪行的可能性比其他人高出45%。这项调查考察了佛罗里达州布劳沃德县公布的7000个风险评分,发现无论是对哪个种族,Northpointe的预测准确率都不高:在它认为以后将犯下暴力罪行的人中,只有20%的人最终正确预测。

不管斯坦福大学的那份报告为人工智能的潜在应用带来了什么希望,在进行更大规模的积极应用之前,必须做出更多的改进和研究,这样才能使警方(以及所有刑事司法系统)受益。如果匆忙上马,没有经过彻底的测试或者没有对潜在影响进行详尽的讨论,以后可能就会产生意料之外的严重后果。

虽然上述报告说“人工智能技术将在今后几十年内使社会变得更好”,但我们必须意识到,AI技术同样可能使社会变得更糟。