预计阅读本页时间:-
第10章
无噪声的规则
近年来,人工智能(Artificial Intelligence)特别是机器学习技术让机器能够执行许多以前只有人类才能执行的任务。机器学习算法可以承担人脸识别、语言翻译、分析医学影像等任务,并且可以以惊人的速度和准确性来处理计算问题,例如为成千上万名驾驶员迅速规划行车路线。它们还可以执行困难的预测任务:预测美国最高法院的判决;识别哪些嫌疑人更可能在保释期逃脱;评估儿童保护部门接到的哪些电话更紧急,并需要工作人员上门访视。
尽管如今我们一听到“算法”一词,首先想到的是上面这些应用,但这个词还有更广泛的含义。在词典中,算法的定义是:在解决计算或其他问题时(尤其是借助计算机)所遵循的步骤或规则。根据这一定义,我们在上一章中所描述的简单模型和其他形式的机械性判断也属于算法。
事实上,从简单的规则到最复杂且难以理解的机器学习算法,许多机械性方法都可以胜过人类的判断。机械性方法之所以有这种出色表现,一个关键原因可能是所有机械性方法均无噪声,尽管这不是唯一的原因。
广告:个人专属 VPN,独立 IP,无限流量,多机房切换,还可以屏蔽广告和恶意软件,每月最低仅 5 美元
为了研究不同类型的基于规则的方法,并了解每种方法为何以及在何种条件下更有价值,我们从第9章的基于多元回归的简单模型(即线性回归模型)开始我们的旅程。由此出发,我们将在复杂性频谱上朝着两个相反的方向前进,首先从极端简捷的一端开始,然后朝着逐渐复杂的方向前进(见图10-1)。
图10-1 4类规则和算法的相对复杂性
简捷:稳定之美
罗宾·道斯(Robyn Dawes)是20世纪六七十年代美国俄勒冈州尤金市研究人类判断行为的团队中的另一位明星成员。1974年,道斯在简化预测任务方面取得了突破。他的研究思路令人惊讶:他建议不要使用多元回归模型来确定每个预测因素的精确权重,而应给所有预测因素分配均等的权重。
道斯将均等权重的公式定义为“非最适线性模型(improper linear model)。他出人意料地发现,这些均等权重模型(equal-weight models)的准确性与合适的回归模型差不多,且远胜于诊断性判断。
连“并非最合适的模型”的支持者也承认,这种说法是不可信的,并且与统计直觉相悖。的确,道斯及其助手伯纳德·科里根(Bernard Corrigan)最初曾努力将论文发表在学术期刊上,但是编辑们根本不认同。如果回顾一下上一章中的莫妮卡和娜塔莉的例子,你就会相信某些预测因素比其他预测因素更重要。例如,相比于职业技能,大多数人会给予领导力更高的权重。因此,简单的未加权平均值怎么可能比精细加权的平均值或专家判断更好地预测一个人的表现呢?
在道斯取得研究突破多年后的今天,人们已经很熟悉这种令其同时代人惊讶的统计现象。正如前文所解释的那样,多元回归模型计算出了最佳权重,从而使均方误差最小化,而多元回归使原始数据中的误差最小化,因此,公式会自行调整以便预测数据中的每个偶然因素。例如,如果样本中包含一些具有较高职业技能但是由于不相关原因而表现异常出色的经理,该模型就将增加职业技能的权重。
这其中的挑战是:当将公式应用于样本之外时,也就是用它预测不同数据集的结果时,这些权重将不再是最优的。原始样本中的偶然因素不再存在,因为它们是“偶然因素”。在新样本中,具有较高职业技能的经理并不会都表现出色,而且新样本中具有原公式无法预测的新因素。要衡量模型预测的准确性,正确的做法是观察它在新样本中的表现,也就是观察它的“交叉验证相关性”(cross-validated correlation)。事实上,回归模型在原始样本上过于出色,因此交叉验证相关性的表现几乎总是比它在原始样本中的表现差。道斯和科里根在几种情况下对均等权重模型和多元回归模型(交叉验证后)进行了比较。他们采用的一个案例就是预测伊利诺伊大学90名心理学研究生第一年的GPA,使用的是与学业成就相关的10个变量,如能力测试分数、大学成绩、各种同龄人评分(peer ratings,如外向性)以及各种自评(如责任心)等。标准多元回归模型的预测相关系数为0.69,经过交叉验证后降至0.57(PC=69%);均等权重模型与第一年GPA预测的相关系数与此大致相同,为0.6(PC=71%)。许多其他研究也得到了相似的结果。
当原始样本较小时,经过交叉验证后,准确性会降低更多,因为小样本的偶然性多,变异性较大。道斯指出,社会科学研究中通常使用小样本,以致所谓的最佳权重的优势消失殆尽。正如统计学家霍华德·怀纳(Howard Wainer)在一篇研究最适当权重估值的学术论文中所使用的副标题:它并不重要。用道斯的话说,“我们不需要比我们的测量更精确的模型”。均等权重模型之所以表现出色,是因为它不容易受样本中偶然因素的影响。
道斯的研究的直接理论成果值得广为人知:即使你缺少有关结果先前的数据,你也可以进行有效的统计预测,只需收集一些你认为与预测结果相关的预测因素即可。
假设你必须对已经在多个维度上获得评分的高管的绩效做出预测,如第9章中高管的例子所示。你相信这些评分有很强的预测力,但是你没有每个评分预测的准确性数据。你也不可能花费几年的时间来追踪大量管理人员的绩效情况,但是,你可以基于这7个评分的均等权重模型来做预测。那么,这个均等权重模型的预测效果如何呢?它与结果的相关系数将为0.25(PC=58%),远优于诊断性预测——相关系数为0.15(PC=55%),并且肯定与交叉验证后的回归模型非常相似,也不需要任何你没有的数据或任何复杂的计算。
用道斯的话说,均等权重模型具有“稳定之美”。研究判断的学生已对这句话达成共识。介绍这一观点的开创性文章的最后一句话给出了另一个精妙的总结:“应用均等权重模型所需的全部技巧是决定要关注哪些变量,并知道如何将这些变量进行叠加。”
更简捷:简约模型
另一种简化的方式是采用简约模型(frugal models)或简单规则。简约模型是对现实进行极端简化并无须复杂计算的模型,但在某些情况下,它们可以产生令人惊叹的预测效果。
令很多人感到惊讶的是,这些模型是基于多元回归的一个特征建立的。假设你使用了两个准确性很高的预测因素,它们与结果的相关系数分别为0.6(PC=71%)和0.55(PC=69%),且这两个预测因素彼此相关,相关系数为0.5。当将这两个预测因素进行最佳组合时,预测的准确性会有多好呢?答案令人失望,相关系数是0.67(PC=73%),这个结果比之前好,但并没有好太多。
该示例说明了一条一般性规则:将两个或多个相关预测因素组合后,预测效果相比于单个预测因素并不会好多少。因为在现实生活中,预测因素几乎总是相关的,所以这一统计事实支持使用包含少量预测因素的简约模型进行预测。与使用很多预测因素的模型相比,简单规则只需少量计算或根本无须计算,就能在某些情况下达到令人吃惊的预测效果。
一个研究团队于2020年发表了一项研究成果。他们将简约模型应用于一系列现实问题,内容包括在案件待审期间法官是否该批准被告的保释申请。这项决策隐含着对被告行为的预测,如果错误地拒绝保释,被告将被不必要地拘押,从而对个人和社会造成巨大损失;如果错误地批准保释,则被告可能在受审前逃脱,甚至犯下其他罪行。
研究人员仅使用两个可高度预测被告在保释期逃脱可能性的已知变量来建立模型:被告的年龄(年龄越大,逃脱风险较低)和未按时出庭受审的次数(有未按时出庭受审记录的人,更可能逃脱)。该模型将这两个变量转换为一系列分数,并针对风险进行评分,在计算被告保释期逃脱的风险时无须使用计算机,甚至不需要计算器。
当用真实数据来测试时,该简约模型的表现与那些使用众多变量的统计模型一样好,而在预测逃脱风险方面,简约模型比几乎所有法官的判断都要好。同样的简约模型采用少数几个整数(-3~+3)对最多5个特征进行评分,并以此来对各种任务进行预测,如基于乳房X线片判断肿瘤的严重程度、诊断心脏病、预测信用风险等。在所有这些任务中,简约模型的表现都与复杂回归模型一样好,只不过它通常不如机器学习模型的表现好。
另一项研究也证明了简约模型的有效性。另外一个研究小组研究了一个与上述案例相似但有所不同的司法问题:预测惯犯。研究人员在评估被告再次犯罪的风险时,使用的模型只有两个输入变量,但该模型的预测效果与使用137个变量的模型相同。毫无疑问,这两个预测因素(年龄和先前被定罪的次数)与保释模型中使用的两个因素密切相关,而大量证据表明,它们与犯罪行为也是紧密相关的。
简约模型的吸引力在于其透明性和易用性,而且相比于其他复杂模型,它只需略微牺牲一点准确性就能获得这些优势。
更复杂:机器学习
在旅程的第二部分,让我们在复杂性频谱上朝相反的方向前进。如果我们可以使用更多预测因素,收集更多数据,发现前人未发现的关系模式,并对这些模式进行建模以实现更好的预测效果,那会如何呢?从本质上讲,这就是人工智能的目的。
海量数据集对复杂分析至关重要。而获得此类数据集越来越容易,是近年来人工智能快速发展的主要原因之一。例如,大型数据集可以机械地处理“断腿的例外”(broken-leg exceptions)这种情况。这个有点神秘的短语可以追溯到前文中梅尔假想的一个示例:设想有这样一个模型,它可以预测人们今晚去看电影的可能性,无论你对该模型有多大信心,如果你碰巧知道某人刚摔断了腿,你都可能会比模型更准确地预测他今晚是否会去看电影。
在使用简单模型时,“断腿原则”给决策者提供了重要启示:它告诉人们何时需推翻模型,何时则不需要这样做。如果你掌握了模型未考虑的如“断腿”这样的决定性信息,你就应该推翻模型的建议。此外,即使你缺少此类信息,有时你也不会同意模型的建议。在这种情况下,你试图推翻模型的行为,反映了你对相同预测因素做出反应的个人模式。这种个人模式很可能是无效的,你的干预可能会降低预测的准确性,因此你应该避免推翻模型。
机器学习模型之所以能够在预测方面表现出色,其中一个原因就是,它们能够发现人类所无法想象的各种“断腿”情况。在具有大量案例、海量数据的条件下,追踪观影行为的模型真的会学习,例如在固定观影日去了医院的人当晚不太可能去看电影。可以说,以这种方式改进对不常见事件的预测,可减少对人工监督的需求。
人工智能不是魔法,也不需要理解什么,它仅仅是在识别模式。虽然我们必须佩服机器学习的力量,但我们也要明白,人工智能可能要花很长时间才能理解为什么断腿之人会错过电影之夜。
更明智的保释决策
在前面提到的研究团队将简单规则应用于保释决策问题的同时,由塞德希尔·穆来纳森(Sendhil Mullainathan)(6)领导的另一个团队训练了复杂的人工智能模型来执行相同的任务。研究团队获得了更大的数据集——包含758 027个保释裁定的案例库。对于每种情况,研究团队可以获得和法官一样的信息:被告的罪行、犯罪记录、未按时出庭受审的次数等。除年龄外,参与训练的算法没有其他任何人口统计学信息适合使用。对于每一起案件,研究人员还知道关于被告是否被释放,以及他如果被释放,之后是否会按时出庭或被重新逮捕(被告中有74%的人获得保释,其中15%的人在那之后没有按时出庭,26%的人则被重新逮捕)的信息。研究人员利用这一数据来训练一个机器学习算法,并评估了该算法的表现。该模型是通过机器学习构建的,因此并不限于线性组合。如果它在数据中检测到更复杂的规律,它就会使用此模式来改进预测。
该模型用于预测嫌疑人在保释期逃脱的风险,因此将风险量化为数字,而非只产生是否准予保释的决定。这种方法确定了最大可接受风险的阈值,即如果风险高于该阈值,就应该拒绝保释。然而,研究人员发现,无论如何设置风险阈值,使用该模型的预测得分都高于法官的预测。穆来纳森的团队计算得出,如果将风险阈值设置为一个值,使模型预测的拒绝保释人数与法官判决的拒绝保释人数相同,则犯罪率最多可降低24%,个中原因在于,被关押的人最有可能再次犯罪。相反,如果将风险阈值设置为使该模型在不提高犯罪率的情况下,尽可能减少被拒绝保释的人数,则研究人员计算得出,被羁押的人数最多可再减少42%。换句话说,机器学习模型在预测哪些被告属于犯罪高风险人群方面,表现要比法官好得多。
利用机器学习建立的模型,也比使用相同信息的线性模型成功得多,原因很有趣:机器学习算法在变量组合中发现了一些会被线性模型遗漏的重要信息。算法能对风险最高的被告进行归类,就证明它有能力找到很容易被其他模型忽略的模式。换句话说,数据中的某些模式尽管很少见,却非常准确地预测出了高风险人群。利用算法找到罕见但具有决定性作用的模式,让我们想起了“断腿”的概念。
研究人员还使用该算法为每位法官构建了模型,类似于我们在第9章中描述的判断模型(但不限于简单线性组合)。他们将这些模型应用于整个数据集,使团队能够模拟法官在遇到相同案件时可能做出的判决,并比较这些判决。结果表明,保释裁定中存在相当大的系统噪声,其中一些是水平噪声:根据宽容程度对法官进行分类时,20%最宽容的法官(即保释率最高的前20%的法官)准予保释的概率为83%,而20%最严厉的法官准予保释的概率为61%。法官对于哪些被告具有较高逃脱风险的判断方式也大不相同,被一位法官视为具有低逃脱风险的被告,可能被另一位更严厉的法官视为具有高逃脱风险。这些结果为模式噪声提供了清晰的证据。更详细的分析表明,案例之间的变异占总变异的67%,系统噪声占33%。系统噪声包括一些水平噪声,即平均严厉程度之间的差异,但其中大多数(79%)是模式噪声。
幸好,机器学习程序的高准确性并不以牺牲法官追求的其他目标,如种族平等为代价。从理论上讲,尽管该算法不使用种族相关数据,但它也可能会无意间加剧种族歧视。如果模型使用与种族信息高度相关的预测因素(如邮政编码),或是用于算法训练的数据源暗含偏见,则可能会出现种族歧视。例如,如果将过去的逮捕次数作为预测因素,而过去的逮捕次数受到种族歧视的影响,那么得到的算法也会存在歧视问题。
尽管从原则上讲,这种歧视无疑是一种风险,但在一些重要层面,该算法所做出的决策比法官群体中存在的种族歧视要轻微。例如,如果通过设置风险阈值使犯罪率与法官判决的犯罪率相同,则该算法可将有色人种被判入狱的概率减少41%。在其他情况下,算法也得出了类似的结果,即提高准确性不必以加剧种族歧视为代价。正如研究小组所指出的:通过训练,该算法很容易用于减少种族歧视。
另一项不同领域的研究阐述了算法如何在提高准确性的同时减少歧视。哥伦比亚商学院教授博·考吉尔(Bo Cowgill)考察了一家大型科技公司招聘软件工程师的情况。考吉尔并未使用人工筛选简历的方式来筛选可进入面试流程的人,而是基于该公司收到并评估过的超过30万份简历,来训练机器学习算法进行筛选。该算法选出的候选人比人工筛选的候选人被录取的可能性要高14%。当候选人收到录取通知后,算法组筛选出来的候选人,比人工组筛选出的候选人接受工作机会的可能性要高18%。该算法还根据种族、性别和其他指标选择了一组更加多样化的候选人,而它更有可能选择“非传统”候选人,例如非名校毕业生、缺乏相关工作经验以及没有推荐信的候选人。在筛选软件工程师的简历时,人们通常倾向于选择符合这一群体所有典型特征的人,而该算法则为每个相关预测因素赋予了适当的权重。
需要明确的是,这些例子并不能证明算法始终是公平、无偏见和非歧视的。大家比较熟悉的一个例子是:一个用于预测求职者能否通过面试的算法,实际上是根据过去的晋升决策数据训练出来的,因此,这种算法必然会重蹈过去晋升决策中人类所有偏差的覆辙。
构建一个使种族或性别不平等持续存在的算法,不仅是可能的,而且十分容易做到。许多算法已做到了这一点。这些例子表明,人们越来越关注算法决策中的偏见,但是,在得出关于算法的一般性结论之前,我们应当记住:某些算法不仅比人类判断更准确,而且也更公平。
为什么我们不更多地利用规则
通过这一简短的机械性决策之旅,我们总结出,各种规则之所以会超越人类判断,有两个原因。首先,如第9章所述,不仅仅是最新的和更为复杂的技术,所有机械性预测技术都能显著改善人类的判断。个性化的模式和情境噪声的结合会极大地影响人类判断的品质,因为简单的规则和无噪声是提高决策品质的关键。明智的简单规则比人类的判断要好很多。
其次,当数据足够丰富时,我们可以用复杂的人工智能技术找出有效的模式,并使其预测力远超简单模型。这些模型相对于人类判断的优势在于,它们不仅没有噪声,而且还具有利用更多信息的能力。
既然算法具有如此多的优点,得到大量证据的支持,那么为什么我们在本书中讨论的各种类型的专业判断,没有广泛地使用算法呢?尽管对算法和机器学习的讨论很热烈,但人们对它们的使用仍然很有限(一些特定领域除外)。许多专家不关心诊断性判断与机械性判断孰优孰劣,而是相信自己的判断。他们对自己的直觉充满信心,并对机器能否做得更好持怀疑的态度。他们将算法决策视为不人道的,认为使用算法是一种放弃责任的表现。
尽管算法决策已取得了令人瞩目的进步,但是在诸如医学诊断等领域,使用算法仍然不是惯常的做法,也很少有企业在招聘和晋升决策中使用算法。好莱坞电影制作公司的高管们是根据自己的经验判断而非公式来选择拍摄哪部电影的;图书出版商也在做同样的事情。而且,正如迈克尔·刘易斯(Michael Lewis)的畅销书《点球成金》(Moneyball)所讲述的那样,人们之所以对痴迷于统计的奥克兰田径队的故事印象深刻,恰恰是因为算法在运动团体中的运用是一种例外而非常规。即使在今天,教练、经理人以及与他们共事的其他人通常也更相信自己的直觉,并坚持认为统计分析不可能取代人类自身良好的判断力。
梅尔和他的合著者在1996年的一篇论文中,列举了精神科医生、医师、法官和其他专业人士反对机械性判断的至少17种理由,并对这些理由进行了驳斥。他们得出的结论是,需要结合社会心理因素来解释临床医生对这类判断的排斥,这些因素包括“对技术性失业的恐惧”“了解不足”和“对计算机的普遍厌恶”。
从那时起,研究人员已经确定了导致这种排斥的其他因素。我们不打算在这里对该研究进行完整的回顾,本书的目标是为改善人类判断提供建议,而不是像弗兰克尔法官那样,主张“用机器取代人类”。
但是,关于哪些因素会导致人类抵触机械性预测,其中的一些发现与我们对人类判断的讨论有关。最近的一项研究得出了一个重要观点:人们对算法并非全盘否定。例如,当从人类的建议和算法的建议之间进行选择时,人们通常会选择后者。对算法的抵制或厌恶并不代表一味地拒绝采用新的决策支持工具,人们愿意给算法机会,而一旦发现它会犯错误,就不会再信任它。
这种反应似乎是明智的:为什么要在你不信任的算法上浪费精力呢?作为人类,我们敏锐地意识到自己会犯错误,但这是我们不准备分享的特权,我们希望机器是完美的,如果机器不完美,那就丢弃它。
由于存在这种直觉性的期望,人们仍可能不信任算法,而继续相信自己的判断力,即使自己的判断明显不尽如人意。这种态度是根深蒂固的,除非算法能够达到近乎完美的预测准确性,否则这是不可能改变的。
幸好,可改进规则和算法的相关因素同样可用于改善人类的判断。我们不能奢望能够像人工智能模型一样有效地利用信息,但是至少可以努力模仿简单模型的简单性和无噪声性。在一定程度上,我们可以采用减少系统噪声的方法来提高预测判断的品质。如何改善我们的判断力是本书第五部分的主题。