关系网获得,比如大学兄弟会和麋鹿会(美国的兄弟会组织)。[61]
在卡内基梅隆大学夏校活动中,计算机科学教师认可的是一种程序员的刻板印象:孤僻的怪才,社交技能很差,不讲个人卫生。1967年一篇被广泛引用的心理学论文指出,“对人不感兴趣”和“不喜欢与人密切接触的活动”是“程序员的显著特征”。[62]结果,公司找到了这些人,他们成了那一代的顶尖程序员,而他们的心理状况则成了一种自我应验的预言。
既然如此,这种隐藏的偏见如今又卷土重来,也就不足为奇了,这是因为有越来越多的秘密算法参与到招聘过程中。美国数据科学家、《数学杀伤性武器》一书的作者凯茜·奥尼尔为英国《卫报》撰文,解释了在线技术招聘平台Gild(现已被城堡资本公司收购并纳入公司内部[63])如何通过梳理求职者的“社交数据”,[64]也就是他们在网上留下的痕迹,让雇主获得远超求职者简历的信息。这些数据被用来根据“社交资本”给候选人排名,“社交资本”基本上是指程序员对数字社区有多么不可或缺。这可以通过他们在GitHub或StackOverflow等开发平台上共享和开发代码的时间来衡量。但是Gild筛选出的海量数据也揭示了其他模式。
例如,根据Gild的数据,经常访问某个特定的日本漫画网站“预示着强大的编码能力”。[65]因此,访问这个网站的程序员会得到更高的分数。这一切听起来都很令人兴奋,但正如奥尼尔所指出的,访问漫画网站就能得到加分,这实在让关心多样性的人心中警铃大作。正如我们所见,女性承担了全世界75%的无偿照护工作,她们可能没空花几个小时在网上聊漫画。奥尼尔还指出:“如果像大多数科技网站一样,那个漫画网站也由男性主导,并且带有性别歧视的基调,那么这个行业中的很多女性可能会避免使用它。”简而言之,Gild看起来有点像卡耐基夏校项目中那位男性计算机科学老师的算法。
毫无疑问,Gild并无意创造一种歧视女性的算法。他们的本意是消除人类的偏见。但是,如果你不了解这些偏见是如何运作的,如果你不收集数据、不花一点时间来建立基于证据的程序,你就将盲目延续过去的不公正。因此,Gild的程序员没有考虑到女性与男性在线上和线下生活的差异,他们无意中创造了一个对女性存有潜在偏见的算法。
但这还不是最麻烦的。最麻烦的是我们不知道问题到底有多严重。大多数这类算法都是保密的,并以专有代码的形式得到保护。这意味着我们不知道这些决策是如