Ad Code

决策自动化的迷失

Image Source: https://zhuanlan.zhihu.com/p/90801690

这些年来,我们不时听闻一些国家的公共部门、法定机构和私人企业开始以中立、客观的资讯系统算法(Algorithm)来取代人类进行日常决策,以减低人为偏差所造成的行政偏颇。

人类一直被认为具有根深蒂固的主观价值,和难以根除的潜意识偏见。因此在理论上,逻辑严谨,只倚赖翔实的理据与数据来运算的算法,能够协助人类避开资料不充分、视野不开阔、考虑不周全、精神不集中、情绪化、偏激,甚至是徇私,所造成的决策失误。

这样的设想,其实是建立在所需的充分数据已经全面数码化,并且能在频繁的决策周期开始前,为资讯系统所吸收和处理的假定上。以此为基础,决策单位才得以落实“数据驱动决策”(Data-driven decision making),抑或“人工智能驱动决策”(AI-driven decision making)的境界。

“数据驱动决策”意指数据蕴含洞见,可以改善决策。并且,对决策有用的数据已经过专业性的整理和汇总,供人类决策者处理和参考,但人类还是最终决策的拍板者。

“人工智能驱动决策”却是更进一步的预设,为了充分利用数据所蕴含的价值,企业需要将人工智能(AI)纳入决策流程中,有时甚至得将人类排除在决策流程之外,已达到最优化、高效、不偏不倚的决策品质。

区分“数据驱动决策”和“人工智能驱动决策”的,不仅是字面上的语义,还包括二者处理数据的功能。前者侧重于数据的价值,后者则着重于处理数据的能力。两者最终的目的,皆是要从数据中淬炼出精辟结论和可行方案。只不过“数据驱动决策”以人类作为支配数据的主体;而“人工智能驱动决策”则以智能算法为处理数据和下达决策的主宰者。

无论如何,我对人类是否能够安心把决策权完全交托于算法,持有保留态度。其一,算法要嘛是具有主观意识的人类所采集之数据的产物;再不然,它就是具有主观能动性的人类设计者和编程人员所编译的程式指令,难以全然跳脱于人类的世界观与价值判断。其二,算法只懂得优化资源的应用,以及最大化人类为它所设定目标的结果,却不懂得审视全盘背景、审时度势。

一篇于2016年刊载于《哈佛商业评论》的文章点出,算法(Algorithm)不懂得权衡取舍(trade off),只会一心一意的追逐目标(pursue objectives single-mindedly)。举例来说,今天许多网站都部署算法来决定呈现给用户什么样的在线广告和链接。当这些算法过分专注、狭隘的追逐用户点击率的最大化时,网站充塞了低素质、只图垂钓用户点击的文章。结果是点击率提升,用户满意度一落千丈。

一个算法能够阅读每篇《纽约时报》的文章然后告诉你哪一篇文章最可能被推特用户转发,却不一定能解释为什么人们把文章发到推特上。一个算法能够告诉你哪一位员工最可能会成功,却无法探知哪一些最重要的特质促成了员工的成功。

加州大学伯克利分校的斯图尔特.罗素教授(Stuart Russell)曾指出,人工智能的威胁并非来自于它产生了自我意识,并群起反抗人类。而是人工智能的能力变得超强,而人类却为人工智能设定了拙劣或是错误的目标,让无意识的人工智能在倾全力执行任务以达成目标时,把人类引向灾难性的结局。

另外,有些算法的目标可以是相互矛盾的。譬如一个为了在最短的时间内达到平等分配资源的算法,却有可能犯下罔顾民生和程序正义、一意孤行以至侵犯无辜人士或单位的权益的恶果。我们要如何在为人工智能,以及数据驱动算法设定目标的过程中,平衡各方的利益、价值观,以及感受,是一个极费思量的命题。

《英国广播公司》(BBC)报导,为了防控新冠疫情,英国今年并未举行高考,考生的大学入学成绩由一套算法(Algorithm)得出。但在已放榜的“高考”成绩中,近40%的学生的成绩低于学校教师所给出的预估分数,造成许多学生无法升上大学,引发了考生和家长的抗议。英国政府随即宣布改变成绩计算法,以学校教师的预测成绩,以及算法所导出的成绩之间较高一方的分数,作为每个考生的最终成绩。

《麻省理工学院科技评论》指出,对算法的分析显示,这套成绩算法严重伤害了来自工人阶级和相对平穷社区的学生,并且夸大了私立学校学生的分数。 该篇评论主张,政策U转肇因于有关当局忽视了原本的最终目标,亦即帮助学生在充满焦虑的时期顺利的过渡到大学。

《世界你好:如何在机器时代扮演好人类》一书的作者的汉娜·弗莱(Hannah Fry)认为,在取消考试后,英国考试监管机构面临两个潜在目标。首先是避免准考生的成绩通胀,并使分数标准化;第二是以对大学录取有用的方式尽可能准确地评估学生。但在英国教育大臣的指示下,英国考试监管机构让算法优先考虑优化第一个目标。她直截了当的说: “算法为错误的事情进行了优化。”

这场政策风波理应成为急于把公共决策以“自动化”、“优化”和“客观化”之名假手于人工智能算法的人士的警钟。正如美国知名智库布鲁金斯研究院(Brookings Institution)一篇题为《合理质疑人工智能应对新冠病毒指南》的报告所提醒的那样:滥用人工智能系统来高效预测一个拙劣定义的命题之结论,比什么都不做更糟糕。

文章发表于2020年9月5日的《东方日报》

参考资料/Reference
[1] Harvard Business Review: Algorithms Need Managers, Too

[2] HBR: What AI-Driven Decision Making Looks Like

[3] BBC 中文:人工智能未来可能会太聪明令其意外摧毁人类https://www.bbc.com/zhongwen/simp/science-50234581 

[4] Science Focus: Stuart Russell - How to make AI that works, for us

[5] BBC: AI could become 'an enemy of the human race' warns expert

[6] BBC HARDtalk: Professor of Computer Science at University of California, Berkeley - Stuart Russell

[7] BBC Radio 4 - The Spark: Stuart Russell and Controlling AI

[8] BBC Business News: The ethics of AI

[9] BBC: A-levels and GCSEs: U-turn as teacher estimates to be used for exam results

[10] MIT Technology Review: The UK exam debacle reminds us that algorithms can’t fix broken systems

[11] The Telegraph: The ugly truth about exams: Ofqual has used an algorithm since 2011. And I resigned because of it

[12] The Guardian: Ofqual chief to face MPs over exams fiasco and botched algorithm grading

[13] The Brookings Institution’s Artificial Intelligence and Emerging Technology (AIET) Initiative: A guide to healthy skepticism of artificial intelligence and coronavirus

Post a Comment

0 Comments