被算法操控的生活:重新定义精准广告、大数据和AI
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

“黑箱算法”:被互联网巨头滥用的信息

我不是唯一意识到这个问题的数学家,而且跟我对班克西身份被解密的杞人忧天比起来,我的一些同行发现了真正值得担忧的事情。2016年末,数学家凯西·奥尼尔(Cathy O’Neil)出版了她的书《算法霸权》(Weapons of Math Destruction),书中阐述了我们对算法无处不在的滥用,从评估老师的教学成果、在线推销大学课程,到提供民间信贷、预测回到社会的犯人再次犯罪的可能性。她的结论有些让人毛骨悚然:算法随心所欲地做出与我们有关的决定,根据的仅仅是一些可疑的假设和不准确的数据。

一年之前,马里兰大学法学教授法兰克·帕斯夸里(Frank Pasquale)出版了他的书《黑箱社会》(The Black Box Society)。他认为,一方面,我们的私人生活在逐渐公开化。我们在线分享我们的生活方式、我们的抱负、我们的行为举止和我们的在线社交。而另一方面,却没有人监督华尔街和硅谷公司用来分析我们的工具。黑箱影响着我们看到的信息、做着关于我们的种种决定,而这些算法的运作方式我们却无从知晓。

在网上,我发现了一个由数据科学工作者组成的非官方组织。他们直面这些挑战,分析算法在社会中的应用方式。

这些活动家最关注数据的透明性和潜在的偏见。当你上网时,谷歌会收集你浏览过的网站信息,并用这些数据来决定给你推送什么广告。如果搜索“西班牙”,过几天你就会收到吸引你去那里度假的广告;如果搜索“足球”,那么你将开始在自己的电脑屏幕上看到越来越多的博彩网址。而如果你在搜索引擎中输入“黑箱算法的危险”,那么你会被跳转到订购《纽约时报》(New York Times)的链接。

随着时间的推移,谷歌会建立一幅你的兴趣全景图,并对它们进行分类。通过谷歌账户上的“广告设置”页面,你可以很容易地发现它是怎么推断出这么多关于你的信息的。当我打开这些设置的时候,我发现谷歌对我确实有所了解:足球、政治、在线社区和户外运动都被正确地定义为我喜欢的东西。但是谷歌推送的其他一些话题就没那么准确了:它认为我喜欢橄榄球和骑自行车,但我对这两项运动并没有真正的兴趣。我觉得我必须改正它,于是在广告设置中勾选了我不想知道的运动,然后把我真正喜欢的话题——数学添加到列表中。

在美国宾夕法尼亚州的卡耐基·梅隆大学(Carnegie Mellon University of Pennsylvania),阿密特·达塔(Amit Datta)博士和他的同事们进行了一系列实验,以精确评估谷歌如何对我们进行分类。他们设计了一个自动化工具,它可以创建谷歌的“代理”,让它们打开预先设置的网页。然后,这些代理会访问与特定主题相关的网站,研究人员随后可以查看谷歌给代理显示的广告和广告设置中的变化。当代理们浏览与药物滥用有关的网站时,谷歌会向它们展示戒毒中心的广告。类似地,浏览与残疾相关网站的代理更有可能被展示轮椅广告。不过,谷歌对我们并不完全诚实。在任何情况下,谷歌都不会更新这些代理的广告设置,也不会告诉这些代理谷歌的算法对它们得出的结论。即使我们使用我们的设置,告诉谷歌我们希望被展示和不被展示哪些广告,它也会自作主张地决定向我们展示什么。

一些读者如果知道谷歌并没有改变其展示给浏览成人网站的代理的广告,他们可能会很有兴趣。当我问阿密特,这是否意味着用户可以无所顾忌地搜索色情内容,而不增加其他时候在屏幕上弹出色情广告的可能性时,他建议还是小心为上:“谷歌可能会在我们没有浏览过的其他网站上改变广告。因此,少儿不宜的谷歌广告可能会在你浏览其他网站时弹出。”

包括谷歌、雅虎、脸书、微软和苹果在内的所有互联网巨头都会对我们的兴趣进行消费者画像,并利用这些信息来决定展示给我们什么广告。这些服务在一定程度上是透明的,允许用户查看他们的设置。虽然这些公司向我们了解他们是否正确理解了我们的品味,是对他们有利的,但他们绝对没有将他们对我们的全部了解和盘托出。