“人工智能警官” VS 数据创造的“恐怖分子”
我和谷歌人有一些共同之处,正如我和研究班克西的统计学家有一些共同之处一样。在电脑上查询国民医疗服务系统的病人数据库,或者通过空间统计学追踪罪犯,当然很酷。不论是在伦敦、柏林、纽约,还是在加利福尼亚、斯德哥尔摩,上海或东京,都有和我们一样的数学极客在收集和处理数据。
我们设计算法来识别面孔、理解语言、了解我们的音乐品味;我们创建个人助理和聊天机器人来帮你排除电脑故障;我们预测选举和比赛结果;我们帮助单身人士找到理想伴侣,或帮助他们对现有的潜在交往对象一一筛选;我们尝试在脸书和推特(Twitter)上给你推送与你最为密切相关的新闻;我们确保你找到最佳的假日去处和廉价航班。我们的目的就是通过数据和算法让生活变得更美好。
但事实真的如此简单吗?数学家正在让世界变得更加美好吗?我对空间统计学家解密班克西的反应,足球记者对我《足球数学》一书中数学算法模型的反应,以及丽贝卡对谷歌使用医疗数据库的反应,并非不正常或多虑。相反,这些反应非常自然。算法的使用无处不在,它帮我们更好地认识这个世界。但如果这意味着算法要剥夺我们所爱的东西并且夺走我们的道德品质,我们是否还愿意更透彻地认识这个世界?我们开发的算法真是社会需要的吗?还是只为一小部分数学极客以及他们效力的跨国公司服务?当我们开发出日渐完美的人工智能(AI)后,是否存在算法接管这个世界并且主宰我们命运的风险?
现实世界和数学间的相互作用从来都不是非黑即白的。所有人,包括我在内,有时都会对数学产生一种误解,认为它是解决所有问题的万能钥匙。应用数学家职业性地以“数学建模循环”来看待世界。现实生活中的消费者给我们抛出一个他们想要解决的问题,这个循环就开始了。不管是找到班克西还是设计一个在线搜索引擎,我们都会拿起自己的数学工具箱,打开电脑,编写代码,找到解决方案。我们运行算法,并将其结果提供给客户。接着他们给我们反馈,然后循环继续。
这种转动把手、模型循环的简单方式将数学家从现实世界中抽离,使谷歌人超然物外。在带有休闲玩具和室内运动场的办公楼里工作,谷歌和脸书里绝顶聪明的员工容易产生幻觉,认为一切问题尽在他们的掌控之中。象牙塔和外界的完美隔绝意味着我们的理论不会被现实挑战。这是大错特错的。现实世界存在实际问题,为这些问题提供实际解决方案是我们义不容辞的责任。除了计算,每一个现实问题都有其复杂的方面。
在2016 年 5 月参观谷歌之后的几个月里,欧洲和美国的时局充满了不确定性,而我也在报纸上见到了关于数学另外一面的报道:谷歌搜索引擎提供带种族偏见的搜索建议;推特上的机器人账号传播虚假新闻;斯蒂芬·霍金(Stephen Hawking)担忧人工智能的潜在危害;极右翼分子(极端保守主义者)在算法建立的过滤气泡里结党聚集;脸书分析我们的个性并用于锁定目标选民。关于算法给我们带来危险的报道接二连三、层出不穷。当统计模型对英国脱欧和美国总统选举的预测失败后,人们甚至开始质疑数学家的预测能力。
一夜之间,媒体对数学的报道的话题全变了,足球、爱情、婚礼、涂鸦及其他有趣的主题被性别歧视、仇恨、反乌托邦、民意调查的尴尬结果所取代。
重读那篇关于班克西的科学论文时,我读得更加仔细,并且发现文章几乎没有提供关于班克西身份的新证据。研究人员绘制了 140 件艺术作品的确切位置,但他们只调查了一个怀疑对象的地址。英国著名小报《每日邮报》(Daily Mail)在 8 年前就已经判定这个怀疑对象就是班克西本人。《每日邮报》判断,我们的涂鸦艺术家来自郊区的一个中产家庭,而非一位如我们所愿的来自工薪阶层的英雄。
文章的作者之一,史蒂夫·勒库默(Steve Le Comber)在接受BBC采访时坦陈他们重点关注《每日邮报》怀疑对象的原因。他说:“很快我们就发现,靠谱的怀疑对象显而易见只有一个,而且大家都知道是谁。如果你搜索一下班克西和怀疑对象名字,你会得到大约 43 500 条搜索结果。”
在数学家着手此项研究很久之前,网络上就已经盛传班克西的真实身份。这次研究人员所做的只是将数字与这一信息联系起来,但未能真正说清楚这些数字的含义。这些科学家只验证了一个案例的一个怀疑对象。文章介绍了研究方法,但缺乏太多证据证实这些方法确实有效。
可是媒体不关心研究的局限性。《每日邮报》一篇没有凭据的传闻成了一个严肃的新闻话题,《卫报》(The Guardian)、《经济学人》(The Economist)、BBC竞相报道。数学使传闻合理化,而且让人们相信可以通过算法来找到罪犯。
让我们将场景切换到法庭,设想一下,班克西不是因为他广受大众喜爱的街头艺术遭到指控,而是作为一个在伯明翰街道墙上绘制伊斯兰国恐怖组织宣传画的穆斯林被人控告。继续想象一下,警方在做了一点背景调查后,发现嫌疑人从伊斯兰堡搬到伯明翰后,涂鸦才开始涌现。但他们不能在法庭上采用这一调查结果,因为它不是证据。
那么现在警方可以怎么做呢?很简单,他们可以叫数学家来帮忙。运用算法,警方的统计专家预测穆斯林班克西有 65.2%的可能性就住在某栋屋子里,接着反恐特别行动队破门而入。一周之后,穆斯林班克西就会根据预防恐怖主义方案遭到软禁。
按照史蒂夫及其同事在他们的文章中提出的对研究结果的使用方法,上述情景的发生并非遥不可及。他们写道,寻找班克西“证明了以前的想法是可行的——对涉及恐怖主义的轻微行为(比如涂鸦)进行分析,可以帮助我们锁定恐怖分子基地,将恐怖行动扼杀在摇篮之中”。数学武器一朝在手,穆斯林班克西被指控、定罪。过去在间接证据里都非常弱的统计数据现在却成了强有力的实证。
然而,潘多拉的盒子这才刚刚打开。在成功找出穆斯林班克西后,私营企业会争先恐后地与警方签订合同,为其提供基于统计数据的建议。在获得首个合同后,谷歌会将警方的全部记录输入“DeepMind”(深度思维),以便找出潜在的恐怖分子。若干年后,政府将在公众的支持下引进“常识”措施,把我们的网页搜索数据和谷歌的警方记录数据库进行整合,“人工智能警官”就能够这样被创造出来。它们会通过我们的搜索和浏览数据推断我们的动机和未来行为。每个“人工智能警官”会配备一个行动小组,以便他们在深夜对潜在的恐怖分子发起突袭。这种黑暗的数学未来正以骇人的速度接近你我。
在展开长篇大论之前,我们就已经察觉到数学不仅会大煞风景,还会侵蚀我们的道德品质。它在给花边小报的流言蜚语提供合法性,它在诬告伯明翰公民进行恐怖活动,它还在帮助大量不负责任的公司积累海量的数据,建立超级大脑,监视我们的行为。这些问题到底有多严重?这些场景到底有多现实?为了找出答案,除了应用我唯一掌握的方法之外,我别无选择。这个方法就是审视数据,统计数据,并且进行数学运算。