Saturday, February 27, 2021

大型AI模型的风险


所有权力都需要大叙述(grand narrative)来确立其合法基础以及正当性。譬如说,封建人治时代的君权神授;民主法治时代的天赋人权、社会契约论等。在数码时代,人工智能行使算法驱动自动化决策权力的依据,则是能够超越人类生、心理局限,杜绝人为偏见和偏差的翔实大数据。

数据驱动人工智能算法是否真的能够做到不偏不倚,近几年来一直备受质疑和争议,事因人类开发人员很可能通过所采集的数据、为数据所贴上的标注,甚至是编程逻辑,把私己的世界观,内置或转移到人工智能的数据模型里头。

在数据驱动人工智能的推崇者和利益相关者,费煞苦心为机器学习、深度学习,还有超大型自然语言处理模型寻找和建构不证自明的合法权力来源的大叙述之时,谷歌在2020年岁末以充满争议性的手法解职著名黑人女性人工智能伦理守则学者添霓.格布鲁(Timnit Gebru)这一举动,却打开了引发更多人关注数据驱动人工智能模型偏差结论的潘多拉盒子。

这或许是谷歌,以及所有致力推广大型数据驱动人工智能模型广泛应用者,所始料不及的。

综合媒体的报道,添霓.格布鲁因2018年一篇与他人合撰的开创性论文而蹿红。该论文揭露面部识别软件对黑人女性有高达35%的错误率,而对白人男性几乎完全正确;这意味着使用这类系统最终可能导致女性和有色人种受到歧视。 《麻省理工科技评论》高级记者珂灵(Karen Hao)在一篇特写中介绍格布鲁是AI伦理学研究领域备受尊崇的领军人物,她还共同创立了黑人进军人工智能领域的亲和力小组(Black in AI affinity group),并积极倡导科技行业的人才组成的多元性。 记者珂灵也在同一篇文章中指出,格布鲁在谷歌所打造的团队堪称AI领域最为多元化的队伍之一,拥有许多顶尖专家,备受同行倾羡。

舆论普遍认为,添霓.格布鲁很可能是因为坚持以谷歌员工的名誉,参与发表一篇批判人工智能驱动大型语言模型技术的论文《随机鹦鹉的危险:语言模型会太大吗?》(“On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”)而被开除。

这起风波所反映的矛盾,可能远比一家单纯科技公司内部的阶级和种族矛盾还要深刻 – 我们当前最热切追求与全力投资的AI技术是不是健全的,还是有难以被逆转的内在缺陷?

这几年来最风靡全球的自然语言处理模型如谷歌的BERT、由Nvidia研发的MegatronLM模型、Microsoft的Turing-NLG,甚至是OpenAI的GPT-2以及GPT-3都是以谷歌在2017年公布的Transformer语言模型(Transformer Language Model)为技术基石。

据报道,谷歌已经将Transformer驱动的BERT技术它融入其搜索引擎中。而搜索一直是谷歌利润最丰厚的业务;仅在2020年第三季度,以搜索为主的互联网业务就为谷歌带来了263亿美元的销售额。

无论如何,一些研究显示包括BERT技术在内的语言模型,不但摆脱不了歧视有色人种以及女性的刻板偏见,而且还倾向耗能、耗电、耗数据,以至开发和维持成本昂贵,还有不利环境。

《麻省理工科技评论》(MIT Technology Review)曾揭露,一些超大型人工智能模型每一回合数据驱动训练的耗电量,相等于一户美国家庭50天的用电量总和。麻省理工学院所发布的研究结果更显示:一些时下最前沿人工智能模型训练过程的碳排放量,相近于从纽约往返三藩市机程的总碳排放量。

另外,包括《连线》(Wired)以及《麻省理工科技评论》在内的媒体也一再的引用学者的研究论文来警惕,开发人工智能系统的人员可能会在建模的技术过程中,下意识的通过数据的采集和筛选、数据的标注,或编程等方式内置或移植自己的偏见。 一些公共实验表明,这些本应绝对翔实、客观、杜绝人为偏见的系统,在与有色人种的互动中,往往产生偏差结论 -- 一些专家学者倾向认为,这很可能肇因于少数族群和女性在创建这些系统的开发人员团队中,代表性不足。

问题是,许多企业王国和被看好的独角兽级初创公司,都是以类似的技术蓝本为融资的卖点。任何尝试揭露技术弱点,或不引用乐观的论点来描绘这项技术的耗能和耗数据短处可望被克服的做法,都会被视为对既得利益者的挑战和挑衅。

《纽约时报》(The New York Times)形容,添霓.格布鲁的离开,突显了谷歌内部直言不讳的员工们与精打细算的高层之间日益紧绷的关系。《纽约时报》认为,人们对谷歌为建立公平可靠的技术所做的努力也表示担忧  --  更可能对黑人技术人员和近年来告别学术界前往硅谷从事高薪工作的研究人员产生寒蝉效应。

近十年来由深度学习引领的数据驱动人工智能风潮,主要是在海量数据被数码化的大趋势下,所产生的高效模式匹配算法(highly effective pattern matching algorithm)。这演变是半导体、电子芯片、电脑硬体驱动的运算和贮存技术飞速进展的结果,也是人手一机、移动互联网(mobile Internet)高度普及化时代的间接产物,而不是实质科学原理的发现和应用的成就。

我的粗浅意见是,当前火红的数据驱动人工智能技术仍旧处于实验阶段,以及具体应用被持续优化的过程。所以我们不妨让它继续发挥工业流程自动化、商业应用客制化,和高效查找并梳理隐藏数据规律(hidden data pattern)的数码分析优势,但限制它涉足定夺人类命运和社会福祉的决策。这是因为这类技术目前仍就难以轻易摆脱基于性别、种族和其他特征的内置偏见,它或会让边缘化社群终身受制于代替公共决策单位行使公权力的算法(algorithm)。

文章发表于2021年2月14日的《东方日报》

参考资料/Reference

[1] The New York Times: Google Researcher Says She Was Fired Over Paper Highlighting Bias in A.I.

[2] Timnit Gebru's Exit From Google Exposes a Crisis in AI 

[3] MIT Technology Review: Congress wants answers from Google about Timnit Gebru’s firing

[4] MIT Technology Review: A leading AI ethics researcher says she’s been fired from Google

[5] MIT Technology Review: We read the paper that forced Timnit Gebru out of Google. Here’s what it says.

[6] 澎湃新闻: 谷歌解雇AI伦理团队负责人引争议,学界拒审查谷歌论文

[7] 前谷歌AI伦理专家Timnit Gebru遭东家解雇:论文或为导火索

[8] 量子位|量子位: Jeff Dean竟在谷歌成众矢之的!开除“论文不合格”AI伦理研究员,被1400名员工批斗

[9] Alphabet performs better than expected in Q3 thanks to rising ad revenue

[10] Google: BERT now used on almost every English query

[11] Google BERT: From 10% to 100%

[12] MIT Technology Review: Training a single AI model can emit as much carbon as five cars in their lifetime

Sunday, January 31, 2021

2020年年度人工智能总结



近十年来最引人关注的人工智能领域突破性成就,大都是以人工神经网络(Artificial Neural Network)为技术核心,而其代表则为数据驱动的深度学习(Deep Learning)以及机器学习(Machine Learning)。刚刚过去的2020年,或许是市场检验数据驱动人工智能能耐的关键年份。

迄今为止,数据驱动人工智能所展现的乐观发展有:

(1) 论证小数据样本学习(low-data training/small data training)成效的论文开始引发关注。这包括“一次或几次性学习”(One- or few-shot learning),甚至是“少于一次的学习”(Less than one shot learning)的科研成果。这些技术旨在克服机器学习模型“数据饥渴”短板(data hungry),让训练模型能够倚赖少量数据见微知著、举一反三,对现实世界的事物与动态做出准确的预判。

(2) 谷歌的子公司DeepMind所开发的AlphaFold 2系统在Critical Assessment of Structure Prediction(CASP)结构预测关键评估挑战赛中,以略高于90%的准确度,成功预测蛋白质的三维形状(proteins' 3D structures)。不少媒体用人工智能解开了困扰人类50年的生物学蛋白质折叠难题来形容这项科研突破。专家认为,这项突破有望协助人类充分理解病毒和癌细胞的蛋白质结构,以寻求在治疗棘手的瘟疫、癌症等生物科技上取得实质的进展。

(3) OpenAI所开发的GPT-2据说能够自学下象棋,还能作曲。在2020年6月公布的GPT-3能写诗、创作剧本,用CSS、JSX、Python等程式语言编程,并应邀在英国的《卫报》撰写一篇由人类编辑合成的文章。

(4) 在2020年8月18日至20日期间,由Heron Systems开发的人工智能系统,在美国国防高等研究计划署(DARPA)举办的AlphaDogfight模拟空战竞赛中,以5比0战胜美军顶尖F-16战斗机飞行员。

(5) 苹果(Apple)和微软(Microsoft)追随谷歌(Google)与亚马逊(Amazon)的步伐,加大对自主研发和生产AI 芯片(AI chips)的投资,放眼不再受制于半导体厂商或中美贸易战博弈的掣肘,达到在软硬体上自给自足的长远维续目的。

无论如何,在2020年,数据驱动人工智能也呈现了一些不太乐观的景象:

(1) 无人驾驶汽车(driverless car)没有落地,也没有在可预期的短期内大规模安全上路的迹象。

(2) 人工智能没有在严格意义上探测到并及时制止新冠疫情肺炎瘟疫的爆发与蔓延。

(3) 数据驱动人工智能模型,在新冠肺炎造成世界各地限行、封城,全民居家工作与上课以免受到感染的情况下,频频出错,无法准确评估消费者和借贷者的信贷评级、消费趋向等。这引发了当前最火红的机器学习和深度学习人工智能技术,只能在常规状况下正常运作的隐忧。

(4) 在美国非裔男子佛洛伊德(George Floyd)遭遇警察暴力致死所引发的全球抗议浪潮压力的驱使下, 基于无法以面部准确识别有色人种尤其是黑人女性的身份,国际商用机器(IBM)、亚马逊(Amazon)以及微软(Microsoft)在各种层度上放弃在短期内允许人脸识别系统应用于警方执法。

(5) 著名非裔女性人工智能伦理守则专家添霓 . 格布鲁(Timnit Gebru),由于坚持以谷歌员工的名誉,发表大型语言模型(large language models)带有难以能轻易根治的性别歧视和种族歧视等偏见,以及极其耗能、耗数据、不利环境等,被谷歌解职。这起事件所反映的矛盾,其实可能远比我们在媒体舆论上观察到的阶级和种族矛盾还要深刻 – 我们当前最热切追求与全力投资的AI技术是不是健全的,还是有难以被逆转的内在缺陷(inherent flaw)?

诚然,人工智能只有在与人类的作息紧密关联的情况下,才会被广泛的采纳与接受。 在资本主义挂帅的年代,使AI融入人类日常生活最直接的途径就是,将AI应用于消费主义(consumerism)当中。这也是当前许多 企业和科研单位构思、设计以及开发AI用例的方式。

在消费主义的驱使之下,AI应用程序的开发虽然不一定会以人为本,却跳脱不了以人类本身为设计主题的中心。 许多能够反映人类好恶的网络活动数据以及线上消费经历,被用于训练AI模型。人类对AI驱动电子事件的反应,被视为评估AI模型的有效性的标杆。 企业和商家希冀消费者将会产生的反应和做出的决定,被定义为AI建模的目标。

遵循这条思路,无可避免的,许多市面上所流行的AI模型,都以影响人类的审美品味和消费观点为目的。而AI模型所触发的数据驱动数码事件,还可能连带改变人类用户的行为与信念。

数据驱动人工智能或许还没有能耐在顷刻间为人类的生活带来翻天覆地的变化;但它却会为商家带来隐藏的商机,为意图引导民众舆论的广告商、营销业者、媒体,甚至是政治势力带来左右普罗大众观点和行为的数码方程式。

总的来说,基于统计学(statistics based)的神经网络(机器学习和深度学习)技术之所以被吹捧为现代AI的支柱,在于它能够持续通过数据所提供的反馈来验证其有效性,以及勾勒未来的长期价值。

从修辞层面来解读,数据驱动人工智能本身是当代企业复兴和大国崛起大叙述里的要角。它能通过形象化的数据图像勾画人类决策者已经平白浪费的过往机会成本,还有在当下能够把握,以及在未来可以从数据中持续发掘的增长契机。

文章发表于2021年1月2日的《东方日报》

参考资料/Reference

关于人工智能乐观前景的参考资料:
[1] MIT Technology Review: A radical new technique lets AI learn with practically no data | “Less than one”-shot learning can teach a model to identify more objects than the number of examples it is trained on.
[2] 滑铁卢大学提出“小于1”次学习,可能极大减少数据集需求
[3] Ilia Sucholutsky, Matthias Schonlau: 'Less Than One'-Shot Learning: Learning N Classes From M<N Samples
[4] Papers With Code: One-Shot Learning
[5] PetaPixel: Samsung AI Can Turn a Single Portrait Into a Realistic Talking Head
[6] DeepMind: AlphaFold: a solution to a 50-year-old grand challenge in biology
[7] Nature: ‘It will change everything’: DeepMind’s AI makes gigantic leap in solving protein structures
[8] Sukanta Saha: The cornerstone to the next revolution — DeepMind’s AlphaFold 2 - How AI just solved the 50-year-old grand challenge of protein folding and modeling
[9] The Science: Has Artificial Intelligence ‘Solved’ Biology’s Protein-Folding Problem?
[10] 学术头条: 又一壮举!GPT-3首次完成剧本创作,AI解决创造性问题的能力正迅速提升
[11] 维科网@OFweek:语言生成器GPT-3《卫报》专栏文章:不要怕我,我不想消灭人类!
https://www.ofweek.com/ai/2020-09/ART-201717-8500-30457682.html
[12] 科技报橘@TechOrange: 英媒《衛報》用 GPT-3 機器人寫了篇文章,主旨是「我不會消滅人類
[13] Wikipedia: Generative Pre-trained Transformer 2 (GPT-2)
[14] Wikipedia: Generative Pre-trained Transformer 3 (GPT-3)
[15] Air Force Magazine: Artificial Intelligence Easily Beats Human Fighter Pilot in DARPA Trial
[16] yahoo!新闻@TechNews: AI 的時代來了?DARPA 舉辦模擬空戰,AI 5:0 完勝美軍 F-16 飛行員
[17] deelearning.ai@The Batch Newsletter Issue August 26, 2020
[18] Wired: With Its Own Chips, Apple Aims to Define the Future of PCs
[19] Bloomberg: Microsoft Designing Its Own Chips for Servers, Surface PCs
[20] CRN: Microsoft Is Working On Arm-Based Chips For Azure, Surface PCs: Report
[21] Bloomberg: Apple Aims to Sell Macs With Its Own Chips Starting in 2021
[22] Tech Wire Asia: Sony and Microsoft develop AI imaging chip – what it means for industry
[23] South China Morning Post: Sony, Microsoft strike deal on tiny AI imaging chip with huge potential for cameras
[24] Unite.AI: Microsoft Partners with Startup Graphcore to Develop AI Chips
[25] The Japan Times: Sony and Microsoft strike deal on tiny AI chip with huge potential
[26] ExBulletin@TECH: Chip Giants Intel and Nvidia face new threats from Amazon to Google and Apple
[27] Tech Republic: What Apple's M1 chip means for big data and analytics
[28] Anuja Ketan: The AI Chip Arms Race: Will Google, Apple, Microsoft, or Amazon Kill The CPU?
[29] Financial Times: Apple chips away at a new strategy for computing


关于人工智能局限的参考资料:
[1] 《经济学人.商论》: 路障 - 无人车显现了当今AI的局限性
The Economist: Driverless cars show the limits of today’s AI
[2] Associated Press: Can AI flag disease outbreaks faster than humans? Not quite
[3] AI could help with the next pandemic—but not with this one
[4] CNBC: A.I. can’t solve this: The coronavirus could be highlighting just how overhyped the industry is
[5] The Brookings Institution’s Artificial Intelligence and Emerging Technology (AIET) Initiative: A guide to healthy skepticism of artificial intelligence and coronavirus
[6] World Economic Forum: AI can help with the COVID-19 crisis - but the right human input is key
[7] The Next Web: AI sent first coronavirus alert, but underestimated the danger
[8] MIT Technology Review: Our weird behavior during the pandemic is messing with AI models
[9] The Batch Newsletter: Bias in Plain Sight, Apple's New AI, Amazon's Firtual Fitting Room, Bot Besties, Researchers Go Ape
[10] MIT Sloan Management Review: Data Science, Quarantined
[11] Vox: Big tech companies back away from selling facial recognition to police. That’s progress.
[12] The Washington Post: Microsoft won’t sell police its facial-recognition technology, following similar moves by Amazon and IBM
[13] The Business Insider: Outrage over police brutality has finally convinced Amazon, Microsoft, and IBM to rule out selling facial recognition tech to law enforcement. 
[14] The New York Times: Google Researcher Says She Was Fired Over Paper Highlighting Bias in A.I.
[15] Wired: Timnit Gebru's Exit From Google Exposes a Crisis in AI 
https://www.wired.com/story/timnit-gebru-exit-google-exposes-crisis-in-ai/
[16] MIT Technology Review: Congress wants answers from Google about Timnit Gebru’s firing
[17] MIT Technology Review: A leading AI ethics researcher says she’s been fired from Google
[18] MIT Technology Review: We read the paper that forced Timnit Gebru out of Google. Here’s what it says.
[19] Reuters: Google told its scientists to 'strike a positive tone' in AI research - documents

数码时代的自由意志

在这个炫酷的科技时代,我们享有快捷便利的电子招车无缝出行服务(Mobility As a Service)、卫星定位周边功能即时显示消费好去处,以及源源不绝的临近商品价格促销。但是伴随这些便利而来的大规模数码监控和系统性算法偏见(algorithm's systemic bias),却让我们逐渐失去了实现社会流动(social mobility 注1)的能力。

为了在由科技巨头主宰的时代中生存,我们需要以一种可以取悦主流算法的方式留言、生活、工作和消费。于是,你开始察觉每个人似乎都展现同样的信念与个性、大同小异的品味,相去不远的消费方式,以及相若的价值判断,以免被算法惩罚或压制。

在这个机器算法精心安排的世界中,我们还有自由意志吗?你可曾想到过,我们过去有多少琐碎乃至关键的决策,是由旨在优化企业收益的算法所决定或推翻的?

前些时候,我对面子书网友发牢骚,人类的习性将日趋被我们过往在网络所留下,以及在未来持续通过线上活动积累的数码踪迹(digital trace)所定义、强化(reinforce)和框限,最终丧失真正意义上的自由意志(free will)。

我的一些假设(hypothesis)如下:

每个社交媒体用户,均可被一组描述个人特征的参数(parameters)所定义,例如剑桥分析公司(Cambridge Analytica)丑闻中描绘的情景。

为了有效的驱动消费,网络社交媒体有可能暗地里教导广告客户,如何通过增加或抑制能够影响我们,或我们最信任的家人与朋友之数码事件(digital events)的剂量,如传递信息的频率,和内容口味的轻重等,来达到高效的行销,或是削弱对手公信的目的。

如果以上举例的数码事件未能影响我们的信念和行为;我们身旁几同“数码奴隶”(digital  slave)的亲朋戚友,可能遭到算法所产生的数码事件助推(nudge),发挥动摇我们的信念和改变我们行为的“助攻”角色。

据报道,即使一个人从未注册过面子书帐户,在技术上,面子书仍有可能会通过一个影子账户(shadow profile)来存储和追踪此非用户的数码踪迹。理论上,只要非用户的家人或朋友,甚至是陌生人上传可以辨识此人的图像、视频和帖文到社交网络上,平台可以通过机器学习算法持续拼凑和推敲这个人的日常点滴。

诚然,客制化算法的影响并非每次100%收效,也不必如此,就像行销和广告业者只图高于某个百分比的转换率(conversion rate)一样。然而,可怕的是,数码影响永远不会停止,也难以辨识边界。它会通过我们没有意识到的细微方式和隐晦渠道来形塑我们的行为和世界观。

我担心的是,由于受到企业盈利驱动数码事件潜移默化的影响,每个人都开始趋同,变得一致。

当然,在算法驱动的年代,我们生活的世界还是会有多样性,但这会是一个逻辑悖论:单元化的多样性,而不是真正的多元化。多样性的橱窗展示终究会汇集(converge)到主流品牌或超级平台(Super App)的麾下。最终的发展结果或会是,样品多元,但品牌、平台和载体极其单元。而每一个行销季节的样品主题,很有可能被超级平台的演算法逐渐单元化的设定和垄断。

另外,近日《中文哈佛商业评论》在《当算法加剧了不平等,普通人还有上升空间吗?》一文中指出,起步卑微却能白手起家取得成功的事例,在日益由人工智能驱动的社会里变得渺茫。事缘人工智能的复杂算法由少数企业精英所支配;而普通员工却得面对算法管理、指派任务、评估表现的被动命运。最终,被算法监控、几近被透支应用劳动力的员工所将面临的是晋升无望,工作两极分化的窘境。

该文作者迈克·沃尔什(Mike Walsh)在《算法领导者》(The Algorithmic Leader)一书中,探讨了令人担忧的数码阶级鸿沟,亦即我们的劳动市场被划分为三个等级:为算法工作的普通百姓、拥有设计和训练算法系统技能的专业特权阶层,还有坐拥管理算法平台的少数超级富有贵族。

该文也引用“代码上限”一词来描绘阻止普通员工在人工智能驱动的企业里晋升的现象。这现象指的是,在日常的工作环境中,初级员工和自由工作者极少与其他人类同事互动。反之,他们都是由算法管理的,也就被动的被算法精算式的利用和操控,难以突围或吸引人类高层的青睐。

今年9月,最初发表于《人物》杂志,在中国网民间广传的文章《外卖骑手,困在系统里》就刻画了系统演算法规定骑手必须完成送餐的时间、指定送餐路线,以及逾时送达食物所将面临的排名积分下跌和收入减少的悲歌,揭露了外卖骑手每日长时间受制于系统算法,牺牲可支配时间的冰冷现实。《新浪科技》分析,平台算法构成了优化资源配置效率、扩大市场份额的生命线,因此通过规则让骑手缩短送餐时间以增加接单量,是导致骑手被困在系统算法里的根本原因。

以上种种发人深思的议题,足以触发哲学性叩问:我们一直以为可以凭自己的想法做出选择,但其实在公在私,我们的选择有可能是已经被算法计算好的(并牢牢地限制住了);在算法的时代,我们还有自由意志吗?

注1: 社会流动(social mobility)或阶级移动是社会经济学的一个概念,指的是自下而上的社会阶级升迁,例如由贫转富、由劳动阶层晋升上流社会等。

文章发表于2020年1月14日的《东方日报》

The saddest truth about this new technology era is that we have mobility as a service (MaaS) but we gradually lose out the ability to achieve social mobility due to mass surveillance and systemic algorithmic bias imposed by the technology giants and the public and private institutions who subscribe to the tech giants' one size fits all technology solution and transformation remedy.

To survive in this era that is completely dominated by the tech giants, we need to believe and behave in a way that could please the mainstream algorithms. The most scary unintended consequence is that you start to find that everyone seems to share the same belief, same taste, same spending pattern and same value judgement to be not penalized or suppressed by the algorithms, be it in the social, cultural,  economic or political discourse.

Another scary thing is that the highly convenient be-all know-all SuperApp that we are using in our everyday lives is very likely to be equipped with Machine Learning capability. The users' behaviors will be modeled via Neural Net with parameters that define the human users' attributes and tendencies. The corporate will treat human users as a Neural Network whose behaviors can be "fine-tuned" and influenced towards certain belief or pattern by increasing or decreasing the dose of Nudging effect (in the form of parameters) via machine algorithms orchestrated digital events.

Do we still have free will in this machine algorithms orchestrated world? Have you ever thought that how many of our past crucial and trivial decisions were shaped or nudged by the algorithms that aim to maximize the corporate profit?

Some of my hypothesis are as below:-

Every social media user is defined by a comprehensive set of parameters like the scenario portrayed in the Cambridge Analytica scandal

The social media companies actually could have secretly taught the advertisers to increase the dose or suppress the dose of digital events that can influence us or our most trusted family and friends.

If the digital events failed to influence our belief and behaviors; our close friends and family members who have been the "digital slaves" might play the vital role to swing out belief.

Indeed there is no escape route. It was reported that even if one never ever registers a Facebook account, Facebook still stores and tracks the digital traces of this person via a shadow profile that is created and continued to be enhanced and accumulated when this non-user's family and friends uploaded the pictures and videos that contain him/her.

The micro-targeted algorithm's influence is not 100% efficient each time and it needn't to be. It's like conversion rate.

For example, for the originally neutral or anti-Chinese Communist Party folks who have been exposed to digital political brainwashing events, if after some months, some of them start to appreciate the view that China's prosperity and stability supersede human rights, freedom, equality and justice, it's a big win for Chinese Communist Party's propaganda arm already.

The horror thing is that digital influence never ever stops, and it creeps in via subtle and nuanced channels that we are not even realized.

The operating procedure of digital influence is similar to that of the marketing strategy of consumer products: there are hard selling, soft selling, online channel and offline channel.

And the effect of this digital influence is deadly pervasive, sometimes it could go beyond the anticipation of the algorithm designers and programmers who implement the logic of the algorithms.

My worry is that as a result of this creepy corporate profit driven digital influence and brainwashing, everyone starts to converge and become the same.

Of course, the main drivers of all these are algorithms driven by consumerism.

Needless to say, there will still be window dressing diversity, that are converged into the hands of very few giant platforms.

参考资料/Reference

[1] Mashable: Facebook Shadow Profiles: What You Need to Know
https://mashable.com/2013/06/26/facebook-shadow-profiles/

[2] The Conversation: Shadow profiles - Facebook knows about you, even if you're not on Facebook
https://theconversation.com/amp/shadow-profiles-facebook-knows-about-you-even-if-youre-not-on-facebook-94804

[3] 中文版哈佛商业评论: 当算法加剧了不平等,普通人还有上升空间吗https://mp.weixin.qq.com/s/YK8Oj5f7vYCbrPlnBph69g

[4] 人物: 外卖骑手,困在系统里
https://zhuanlan.zhihu.com/p/225120404

[5] 新浪科技: 被困在系统里的,还有点外卖的人
https://finance.sina.com.cn/tech/2020-10-25/doc-iiznezxr7921043.shtml

[6] 井岛俊一: 处处都是算法的时代,人类还有自由意志吗?https://www.36kr.com/p/1723471298561

[7] 陈根: 算法时代下,自由意志的让渡和进路
https://www.sohu.com/a/420468946_250147

考考你对机器学习的理解 (Take this quiz to test your machine learning knowledge)

你对当下最火红的人工智能技术 -- 机器学习以及深度学习的了解有多深呢?你真的懂得各种机器学习分支技术(监督学习、无监督学习、强化学习)的差别吗?不妨让我考一考你!点击以下链接回答18道选择题!

https://quizizz.com/join/quiz/60163fa7d26b9b001db72a3d/start?studentShare=true

Feeling BORED today? Want to have some intellectual challenges? I have created a 18-question public Quiz about Machine Learning topic. Feel free to access them at:

https://quizizz.com/join/quiz/60163fa7d26b9b001db72a3d/start?studentShare=true

Sunday, December 06, 2020

交易算法促使企业改变财务报告用语

英国《金融时报》报道,交易算法(Trading algorithms)对我们,尤其是企业高管的遣词用字,正起着深远的影响。

这几年来,由机器驱动的美国企业监管文件(公司的季度和年度财务报告)的下载频率激增,预示着对冲基金正在培训即时读取大量监管报告的内容,以做出快速证券交易决定的智能算法。这种自动化决策算法驱动的资讯汲取与分析量,是传统人类基金经理专才所望尘莫及的。

一篇题目为《如何在机器监听的年代说话:人工智能时代的披露》的论文指出,许多公司热衷于展现公司最光辉的一面,以吸引投资者的青睐。(论文链接:https://www.nber.org/papers/w27950)许多企业尽可能依据机器容易读取的资讯格式,来调整个别公司的业绩报表。

Source: https://www.nber.org/digest-202012/corporate-reporting-era-artificial-intelligence

Source: https://www.nber.org/digest-202012/corporate-reporting-era-artificial-intelligence

该篇论文的作指出:“越来越多的公司意识到,企业强制性和自愿性披露的公司信息之资讯受众,不再仅是人类分析师和投资者。[...] 大量的股票交易,其实由机器人和算法提出的买卖建议所触发的。而这些机器人和演算法,是使用机器学习工具,以及自然语言处理套件来接收、处理和分析信息。”

曼集团(Man Group)的卢克·埃利斯(Luke Ellis)是其中一位接受了“机器阅读”识读培训的众多首席执行员之一,学习避免使用某些(会让机器算法负面评价其公司表现的)短语和单词。

这正在形塑一种新的业界现象。一些专业服务人员表示,一些公司的投资者关系部门正在应用自然语言处理(NLP)模型,来测试多种版本的公司声明,以查看哪种(经过专业用语调校的)公司声明,会让主流交易演算法赋予最高的评价“分数”。无论如何,来自金融和企业研究平台Sentieo的Nick Mazing认为这是一场绝望的战斗。

大多数复杂的自然语言处理(NLP)系统并不倚赖静态的敏感单词的列表,(而是在建模的过程中)自学能够识别有反映公司问题,和展现公司乐观景象的单词组合。举个例子,如果一个惯常使用“具挑战性”字眼的首席执行突然不再使用这个字眼,这可能带来更多信息含量。反过来说,一名不曾使用“具挑战性”字眼的企业领导人如果突然引用这个字眼,它的语境会传递关键信息。

还有就是,机器还不能读取企业高管的非言语提示,例如在高管在回答提问之前,呈现了抽搐(泄露了他的看法)。当然,曼集团(Man Group)的卢克·埃利斯(Luke Ellis)认为“(算法能够捕抓和读取非语言提示所蕴含的含义),只是时间上问题。”

[Excerpt] In an article titled "Robo-surveillance shifts tone of CEO earnings calls", the Financial Times reports that trading algorithms leave a mark with deeper focus on the spoken word.

There’s been an explosion of high-frequency machine downloads of US regulatory filings in recent years, as quant hedge funds simply train algorithms to instantaneously read and trade thousands of reports - volumes that no human portfolio manager could ever hope to read.

The paper, "How to talk when a Machine is Listening: Disclosure in the Age of AI, points out that companies are keen in showing off their business in the best possible light (https://www.nber.org/papers/w27950). They have steadily made reports more machine-readable, for example by tweaking the formatting of tables, as a result of this evolving analysis.

“More and more companies realise that the target audience of their mandatory and voluntary disclosures no longer consists of just human analysts and investors,” the authors of the paper Sean Cao, Wei Jiang, Baozhong Yang and Alan Zhang note. “A substantial amount of buying and selling of shares are triggered by recommendations made by robots and algorithms which process information with machine learning tools and natural language processing kits.”

Man Group’s Luke Ellis is one of the CEOs who has as a result of machine reading been coached to avoid certain phrases and words.

This is becoming a phenomenon, with some specialised services saying that some companies’ investor relations departments are running multiple versions of statements through NLP models to see which “scores” best with the algos. But Sentieo’s Mazing thinks it’s a hopeless battle. 

Most sophisticated NLP systems do not rely on a static list of sensitive words and are designed to both identify both problematic and promising combinations of words and teach themselves. "For example, one CEO might routinely use the word “challenging” and its absence would be more telling, while one that never uses the word would be sending as powerful a signal by doing so.

Machines are still unable to pick up non-verbal cues, such as a physical twitch ahead of an answer, “but it’s only a matter of time” before they can do this as well, Mr Ellis says." [/Excerpt] 

Reference/资料来源

[1] 首要参考资料出处/Primary Reference: https://www.facebook.com/groups/strongartificialintelligence/permalink/3451419928245559

[2] 次要参考资料出处/Secondary Reference:
https://www.ft.com/content/ca086139-8a0f-4d36-a39d-409339227832?fbclid=IwAR25kwIM3Y52040GNuj6H4cgtfrvWBnN2S3SFkuBm0oGeimQBlkel5D588I

AI监督与评估的年代

人工智能或许是近10年来最炙手可热的科技显学。

虽然,电动汽车公司特斯拉首席执行官依隆.马斯克(Elon Musk)在2015年断言由人工智能驱动的全自动无人驾驶汽车将在2018年上路的预言没有成真。但人工智能对公共、私人乃至私密领域的介入,或许比我们所想象得到的还要广泛和深入。

美国在线科技新闻杂志《The Verge》很中肯的描述了人工智能当前的概况:尽管“人工智能”一词毫无疑问的被滥用了,但这项科技的应用,不论好坏,比任何时候都深远。 例如,它被部署在医疗保健以及战争中; 它协助人们创作音乐和编撰书籍; 它会审查应聘者的履历;评估借贷者的信用评级;它还能调整我们用智能手机拍摄的照片。 简而言之,无论喜欢与否,人工智能都会做出影响人们日常生活的决策。

据《华盛顿邮报》一篇发表于2019年的专题报导,包括希尔顿、联合利华和高盛在内的大型企业,已经在招聘流程中嵌入人工智能程序。据称,迄今为止,多达 100 万名求职者受到了 AI 招聘系统的评估。

一些公司也已经开始安装人工智能监工系统,通过影像还有人类工作者与资讯系统的互动频率,以及所创建的数码工作文档等数码化数据,来监视员工有无偷懒,还有评估员工的工作成效。人工智能俨然成为了人类工作效率评估标准的制定者和监督者。

这样的发展趋势,尽管会引发人类的绩效评估,是否能够单凭人们与资讯系统互动所留下的数码轨迹(digital trace)来量化的疑虑,譬如,数码系统鞭长莫及的非典型创意和创新,或非数码化劳力与脑力成果,能否获得AI系统公平的对待?然而,人工智能驱动的数码监工趋势,在新冠肺炎促使全球可观人口长期保持社交距离和在家工作的背景下,很难被逆转。

无论如何,正如知名MIT教授阿莱克斯·彭特兰教授(Alex Pentland)所言,当前的主流人工智能技术深度学习需要庞大的数据源,而且要求数据长时间恒定平稳,以保证模型训练结果的可靠性。另外,数据驱动AI系统的智能依据不会凭空出现,其智能演算法的优劣更多时候取决于以过往人类的决策依据作为训练数据源的素质。

亚马逊在2017年决定放弃继续开发AI招聘系统的个案,应该成为政策制定者和决策拍板者的借鉴。事件起因于亚马逊的实验性AI招聘系统歧视女性。造成系统偏见的原因是亚马逊以公司过去10年内收到的履历来培训审查求职者条件的人工智能模型。然而大部份求职者的简历资料属于男性,结果导致人工智能模型的运算结论以男性观点为中心。

诚然,面对复杂、 多变 、难测,并充满制度性数码化偏见的现实世界,也许更严谨和周全使用人工智能的方式,是纳入人类专才审核机器演算法结论的决策流程(human in the loop),以避免人类过往的偏颇和考量的不周全,通过训练数据被转换成智能系统的制度性偏见。

普华永道(PwC)在2017年的一份报告中,以人类监督者介入资讯系统决策的层度,将人工智能系统分为四个等级:

(一)自动化智能(Automated Intelligence):能够自动执行例行或非例行既有任务的人工智能。 系统不会自我检讨、改进或以新的方式来执行自动化任务。

(二)辅助智能(Assisted Intelligence):协助人类做出决定或采取行动的AI系统。 它无法从系统与人类或外在环境的互动中自主学习。 它能够帮助人类更好、更快捷地执行任务。

(三)增强智能(Augmented Intelligence):增强人类决策能力,并不断地从与人类和周遭环境的互动中学习和改进的AI系统。 它能够帮助人们做出更好的决定。

(四)自主智能(Autonomous Intelligence):可以适应不同情况并在无需人工协助的情况下自主行动的AI系统。 它使决策过程完全自动化,并持续自主优化,是无需人工介入的智能系统。

种种迹象显示,以过往优质数据作为训练数据的机器学习和深度学习人工智能系统,还在第一至第三等级的范围内徘徊,距离达到自主智能能耐的阶段尚远。

在自动化几乎成为不辩自明的企业教条和定理的当代,不妨想想,在数据还没有数码化的过往数千年里,人类一直以信仰、伦理、道理、 原理、定律、规律、数学方程式、道德价值和法律规范来代表知识、制定方针和做决策。

在海量数据数码化的年代,人类尝试通过人工智能从数据中查找利益最大化和资源应用最优化的趋势,来制定方针和下达决策。人类相信数据是翔实和反映事实的,故人工智能驱动的决策将会公允、不偏不倚。

在人类历史中,纯粹以数据作为决策考量依据的时代,可能还不够久远。我们能从数据驱动决策获得什么启发和教训?过份迷信数据所勾勒的趋势会不会让我们典当原则?纯粹数据导向决策会不会比以原理、道理和价值来制定方针的传统方式来得妥善,值得我们进一步探究。 

文章发表于2020年11月7日的《东方日报》

参考资料/Reference
[1] 英中网:AI依旧不能取代人类 亚马逊放弃使用AI招聘工具了
[2] The Verge: Amazon reportedly scraps internal AI recruiting tool that was biased against women
[3] Reuters: Amazon scraps secret AI recruiting tool that showed bias against women
[4] PwC: AI Analysis - Sizing the Prize | What’s the real value of AI for your business and how can you capitalise?
[5] FedTech: Assisted Intelligence vs. Augmented Intelligence and Autonomous Intelligence
[6] 李开复对话MIT彭特兰:AI不是单打独斗,应避免AI冷战
[7] The Verge: The State of AI in 2019
[8] 经济学人.商论: 路障 - 无人车显现了当今AI的局限性【技术季刊《AI及其局限:比预期更陡峭》系列之六】
[9] 学术头条: 简历石沉大海、面试被刷?拒绝你的HR小姐姐,可能只是个AI
[10] Washington Post: A face-scanning algorithm increasingly decides whether you deserve the job
[11] Fortune: Elon Musk Says Tesla Vehicles Will Drive Themselves in Two Years
[12] electrek: Tesla CEO Elon Musk drops his prediction of full autonomous driving from 3 years to just 2

Saturday, December 05, 2020

本周重磅人工智能新闻

这个星期有两则非常重要的人工智能新闻。

(A)第一则是由谷歌的子公司DeepMind所开发的AlphaFold系统在Critical Assessment of Structure Prediction(CASP)结构预测关键评估挑战赛中,已高达近90%的准确度,成功预测蛋白质的3D形状。不少媒体用人工智能解开了困扰人类50年的生物学蛋白质折叠难题来形容这项科研突破。

据报道,发起于1994年,俗称为“蛋白质奥林匹克”的CASP竞赛每两年举行一次,参赛团队需要预测大约100种蛋白质的结构,旨在比较电脑算法预测的蛋白质三维结构和实验室研究的结果。  CASP  衡量准确度的主要指标是 GDT(Global Distance Test), 以范围从0到100的分数呈现,90分以上的得分,就算是与实验室的预测结果相当。

综合媒体报道指称,AlphaFold使用深度学习技术 ,来学习和研究全球数据库中所保存的已知蛋白质的三维形状,并持续改进算法。继2018年首次参赛后取得不俗成绩后,今年它再次参赛,其GDT总体中位值得分为92.4(a median score of 92.4 GDT overall across all targets),在最具挑战性之蛋白质的三维结构预测上,也获得87分。

早在2018年11月首次参加CASP竞赛时,AlphaFold就已经在98个参赛对手中名列第一,成功从 43 种蛋白质中,准确的预测出了 25 种蛋白质的3D折叠结构。而同组比赛中排名二的团队,仅准确预测出了 3 种蛋白质的三维折叠结构。无论如何,  AlphaFold于2018年首次参赛的总体表现离媲比实验室标准的90分尚远。在那一届的比赛中,  AlphaFold的GDT评分中位值(median)为68.5分,没有达到项目认可的90分。


《英国广播公司》BBC科学事务记者布里格斯(Helen Briggs)赞叹, AIphaFold人工智能系统的成效惊人,用几天的时间,就取得了媲美实验室几十年的研究水平。(The AI program was able to do in a matter of days what might take years at the laboratory bench.)

(B)第二则重磅新闻则是,谷歌解雇一名积极研究和揭露数据驱动人工智能算法呈现歧视女性和有色人种偏颇结论的知名人工智能伦理守则专家添霓.格布鲁(Timnit Gebru)。

这几年来,不少研究人员和学者,着手研究和发表论文揭露,开发人工智能系统的人们可能会在建模的技术过程中,下意识的内置或移植自己的偏见。 一些公共实验表明,这些本应绝对翔实、客观、杜绝人为偏见的系统,在与有色人种的互动中,往往产生偏差结论--一些专家学者倾向认为,这很可能肇因于少数族群和女性在创建这些系统的开发人员团队中,代表性不足。

《麻省理工学院科技评论》(MIT Technology Review)高级记者珂灵(Karen Hao)在近日撰写的一篇报道中指出,添霓.格布鲁(Timnit Gebru)是AI伦理学研究领域备受尊崇的领军人物。添霓在前几年与他人合撰一篇开创性论文而蹿红,该论文揭露人工智能面部识别系统在辨识有色人种和女性时准确度低于系统识别白人男性时的表现,这意味着使用这类系统最终可能导致女性和有色人种受到歧视。 她还共同创立了黑人进军人工智能领域的亲和力小组(Black in AI affinity group),并积极倡导科技行业的人才组成的多元性。 在谷歌的协助下,添霓.格布鲁(Timnit Gebru)所打造的团队堪称AI领域最为多元化的团队之一,该团队拥有许多顶尖专家。 备受同行倾羡。

《纽约时报》(The New York Times)形容,添霓.格布鲁的离开,突显了谷歌内部直言不讳的员工们与精打细算的高层之间日益紧绷的关系。《纽约时报》认为,人们对谷歌为建立公平可靠的技术所做的努力也表示担忧  --  更可能对黑人技术人员和近年来告别学术界前往硅谷从事高薪工作的研究人员产生寒蝉效应。

谷歌发言人拒绝置评添霓.格布鲁的离职。 而在发给谷歌内部员工的电子邮件中,谷歌人工智能负责人杰夫·迪恩(Jeff Dean)表示, “添霓.格布鲁的离去是一个困难的时刻,尤其是考虑到她所参与的重要研究主题,以及谷歌作为一个机构还有一家公司对负责任的人工智能研究领域的深度重视。”

《麻省理工学院科技评论》高级记者珂灵在她所发表的专题报道中指出,一系列推文、外泄的电子邮件和媒体文章显示,格布鲁(Gebru)的解职乃她近期共同撰写的另一篇论文,与公司的旨意产生冲突的最终结果。 《麻省理工学院科技评论》所获取的论文初稿强调了大型语言模型的风险(the risks of large language models),包括耗电量、碳排放量、建模过程中高昂的数据运算成本等,而大型语言模型正巧是谷歌业务当前的关键技术。

谷歌AI负责人杰夫·迪恩(Jeff Dean)在一封已在线公开发布的内部电子邮件中告诉谷歌同事,格布鲁(Gebru)合著的论文“没有达到我们(谷歌)的出版标准”。

格布鲁(Gebru)此前向公司表示除非谷歌答应她对发表该篇论文所开出(而谷歌一直不认可)的条件,否则她将辞职。格布鲁(Gebru)后来在推特上说,她向公司要求从假期回来后对她和谷歌之间的雇用展开一次最后的谈判(“a last date” for her employment)。然而,谷歌却在她销假回公司之前,已把她从公司电子邮件帐户中移除。

新闻资料来源:

[1] https://www.bbc.com/zhongwen/simp/science-55191242
[2] https://www.bbc.com/news/science-environment-55133972
[3] https://www.jiemian.com/article/5342091.html
[4] https://www.ithome.com/0/522/247.htm
[5] https://www.huxiu.com/article/274628.html
[6] https://www.nature.com/articles/d41586-020-03348-4
[7] https://zhuanlan.zhihu.com/p/323407792
[8] https://www.businessinsider.com/timnit-gebru-ethical-ai-fired-google-2020-12
[9] https://www.nytimes.com/2020/12/03/technology/google-researcher-timnit-gebru.html
[10] https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/
[11] https://www.mdeditor.tw/pl/p5u8
[12] https://www.zhihu.com/question/304484648
[13] https://hacker-news.news/post/25254772
[14] https://www.nature.com/articles/d41586-020-03348-4

Wednesday, September 30, 2020

AI营运的局限和潜能


Image Source: Andreessen Horowitz Linkedin Page

近年来,基于深度学习和机器学习等人工智能技术赋能许多科技产品强大的智能化功能,许多老牌公司和新创企业纷纷加入开发人工智能驱动产品的行列,深怕落单、被竞争对手拉开距离,甚至是被时代淘汰。然而,对人工智能的投资一般无法在短期内获得财务报表上的回报,个中缘由究竟为何?

来自美国矽谷Andreessen Horowitz风险投资公司的马汀.卡萨罗(Martin Casado)和马特.博斯腾(Matt Bornstein)撰文分析,人工智能业务一般具有较低的利润率(profit margin),并且面对扩展性(scaling)和防御性(defensibility)挑战。无论如何,这类局限往往起源于业务所欲着手解决的客户问题,而非AI技术本身所促成的结果。

文章指出,数据驱动人工智能(data driven AI)当前最大的挑战是 -- 真正的人工智能企业在扩大人工智能模型的应用时,大多数的资源都需要投注在“驯服”数据的长尾效应(taming the long tail of data)。

根据《中文维基百科》,“长尾”或“长尾效应”(The Long Tail)一词,最初由著名美国科技类杂志《连线》(Wired)的总编辑克礼斯·安德森(Chris Anderson)于2004年于自家的杂志中,引用来描述诸如亚马逊(Amazon)、奈飞(Netflix)和Real.com/Rhapsody之类的网站之商业模式。“长尾”指的是那些销量小但种类繁多而不受到重视的产品或服务,由于累积起来的总量巨大,总收益超过主流产品的现象。

据报道,当前的机器学习技术不能很好地处理长尾数据分布(long-tailed distribution)。 最广泛应用的机器学习技术--监督学习模型(supervised learning model)往往在处理常见输入时(即数据分布的开头部分 -  the head of the distribution)表现良好;但在遭逢示例稀疏,处于数据漫长尾端分布(the tail of the distribution)状况的时候,表现不佳。 

由于数据分布的长尾部分通常构成输入数据总和的绝大部分,因此,机器学习开发人员陷入了一个无止尽的循环 -- 不断地收集现实操作环境中的新数据来对模型进行再培训,以便应对稀疏的边缘情况(edge case)。这些用户输入状况虽然相当细琐和罕见,然而,忽视数据的长尾分布却可能是致命性的,导致企业错失潜在客户、让用户沮丧等。

追根究底,这一切源于拥有庞大用户的AI活在漫长的长尾分布中(AI lives in the long tail)。 许多AI应用程序都有开放式界面,并且能够处理杂乱的非结构化数据(例如图像或自然语言等)。 更糟糕的是,用户通常对产品缺乏认识,假定产品具有人类水准,甚至是超越人类的能力。 这意味着用户倾向输入不常见的指示来试探AI系统的能耐,造成边缘情况无处不在。

马汀.卡萨罗(Martin Casado)和马特.博斯腾(Matt Bornstein)认为,以严格的传统定义来说,现下大多数的人工智能系统不全然是软件。其结果是,人工智能业务不是纯粹的软件业务,不享有“一次制造,多次销售”(build once, sell many times)软件商业模式。它们还需要仰赖持续性的人力支持(ongoing human support),以及可观的可变成本(material variable cost)。这些特征在某种程度上使AI驱动业务感觉上更像是服务业。

更准确的说,AI驱动系统的商业模式,很大程度是由软件和服务(运营)所组成的业务。这与传统的软件业务不同 – 输入的范围和输出的结果可预期,营运、销售还有获利的模式稳定性高。长尾效应对AI系统所带来的种种边缘状况,需要人类员工及时插手纠正,或促使公司成立机器学习营运团队(MLOps)全天候待命处理或回应系统问题,才能使AI系统健壮(robust)。

纵使投资和经营AI科技的公司得面临许多难以预见的产品开发以及业务营运方面的挑战,许多企业仍旧决意保持投资力度,这是因为数据驱动人工智能的能耐:它能够让不同企业迎合扩大规模(scale)和不扩大规模(unscale)的商业动机。  

《麻省理工学院斯隆管理评论》(MIT Sloan Management Review)近日在推出2020年夏季阅读清单时,重提一篇发表于2018年,题为《规模的终结》之评论报道。评论称,一个多世纪以来,规模经济(economies of scale)的盛行使得大型企业成为理想的业务引擎。 但是现在,在人工智能的推动下,一大批重要的崭新技术正在翻转规模经济。 未来世纪的业务或许将由小规模经济主导,规模经济侧重以大占优的局面将会逐渐消失。

该篇评论建议,企业可以通过以下三种方式在无规模经济(economies of unscale)中继续发挥作用:

1.成为平台(Become a platform)。

文章举例电力公司可以采用平台思维方式,并将其电力网(power grid)转变为能够支援数千个小型能源生产商的系统。大型银行则可以成为小型、具针对性金融服务应用程序的平台。无论如何,文章也澄清并非每家公司都必须成为平台,否则便消亡。反之,成功的平台策略为企业在不再讲究规模的时代提供了一条突围的路径。

还有就是,客制化的平台能够为平台的参与者(platform participants)提供实用的资讯系统前后端架设, 让众多使用平台的企业倚靠平台便捷的功能维持日常营运 ,产生强大的用户粘性(customer stickiness)。这也是为什么AWS云服务成为亚马逊(Amazon)的利润引擎的原因。 事实上,AWS云服务的营业利润率(operating margin)超过20巴仙,比起亚马逊零售业务的个位数营运利润率表现更佳。

另外,著名科技趋势评论人本尼迪克特.埃文斯(Benedict Evans)在分析了亚马逊的获利方程式后发现,亚马逊网站上60巴仙的销售额是其实是通过第三方市场业务(third party marketplace business)获取的。亚马逊的第三方服务允许其他公司在其网站罗列产品,并通过亚马逊的仓库运输商品。 亚马逊再向使用这项第三方市场平台的商家征收费用。

2.绝对的产品聚焦(Instill absolute product focus)。

在无规模时代,大公司应该看起来更像是一个由众多小型企业组成的网络,每个企业都绝对致力于制造出适合其市场份额的产品。

3.通过动态重组来取得增长(Grow through dynamic rebundling)。

无规模经济中的赢家,能够让每个客户感觉自身像一个独一无二的市场。 公司为每个个体户量身定制的产品和服务,将击败放眼大众市场(mass market)的一般消费商品和服务。 一旦公司了解某个产品的特定客户,公司可从其产品组合中,为该客户准确筛选、推介并提供其他符合顾客意向的产品。 而大公司可以通过AI演算法,为每个客户把量身定制的产品捆绑在一起,提供一揽子个性化的产品或服务。

综上所述,基于统计学的机器学习和深度学习AI技术的强项是涉猎广和深还有细,如果应用得当,能够帮助企业灵活的游刃于规模经济与无规模经济之间。

文章发表于2020年9月23日的《东方日报》

参考资料/Reference
[1] Venture Beat: How to improve AI economics by taming the long tail of data

[2] Andreessen Horowitz: The New Business of AI (and How It’s Different From Traditional Software)

[3] Andreessen Horowitz:Taming the Tail: Adventures in Improving AI Economics

[4] MIT Sloan Management Review: The end of scale

[5] 中文维基百科: 长尾

[6] Benedict Evans: Amazon's profits, AWS and advertising

Sunday, September 06, 2020

决策自动化的迷失

Image Source: https://zhuanlan.zhihu.com/p/90801690

这些年来,我们不时听闻一些国家的公共部门、法定机构和私人企业开始以中立、客观的资讯系统算法(Algorithm)来取代人类进行日常决策,以减低人为偏差所造成的行政偏颇。

人类一直被认为具有根深蒂固的主观价值,和难以根除的潜意识偏见。因此在理论上,逻辑严谨,只倚赖翔实的理据与数据来运算的算法,能够协助人类避开资料不充分、视野不开阔、考虑不周全、精神不集中、情绪化、偏激,甚至是徇私,所造成的决策失误。

这样的设想,其实是建立在所需的充分数据已经全面数码化,并且能在频繁的决策周期开始前,为资讯系统所吸收和处理的假定上。以此为基础,决策单位才得以落实“数据驱动决策”(Data-driven decision making),抑或“人工智能驱动决策”(AI-driven decision making)的境界。

“数据驱动决策”意指数据蕴含洞见,可以改善决策。并且,对决策有用的数据已经过专业性的整理和汇总,供人类决策者处理和参考,但人类还是最终决策的拍板者。

“人工智能驱动决策”却是更进一步的预设,为了充分利用数据所蕴含的价值,企业需要将人工智能(AI)纳入决策流程中,有时甚至得将人类排除在决策流程之外,已达到最优化、高效、不偏不倚的决策品质。

区分“数据驱动决策”和“人工智能驱动决策”的,不仅是字面上的语义,还包括二者处理数据的功能。前者侧重于数据的价值,后者则着重于处理数据的能力。两者最终的目的,皆是要从数据中淬炼出精辟结论和可行方案。只不过“数据驱动决策”以人类作为支配数据的主体;而“人工智能驱动决策”则以智能算法为处理数据和下达决策的主宰者。

无论如何,我对人类是否能够安心把决策权完全交托于算法,持有保留态度。其一,算法要嘛是具有主观意识的人类所采集之数据的产物;再不然,它就是具有主观能动性的人类设计者和编程人员所编译的程式指令,难以全然跳脱于人类的世界观与价值判断。其二,算法只懂得优化资源的应用,以及最大化人类为它所设定目标的结果,却不懂得审视全盘背景、审时度势。

一篇于2016年刊载于《哈佛商业评论》的文章点出,算法(Algorithm)不懂得权衡取舍(trade off),只会一心一意的追逐目标(pursue objectives single-mindedly)。举例来说,今天许多网站都部署算法来决定呈现给用户什么样的在线广告和链接。当这些算法过分专注、狭隘的追逐用户点击率的最大化时,网站充塞了低素质、只图垂钓用户点击的文章。结果是点击率提升,用户满意度一落千丈。

一个算法能够阅读每篇《纽约时报》的文章然后告诉你哪一篇文章最可能被推特用户转发,却不一定能解释为什么人们把文章发到推特上。一个算法能够告诉你哪一位员工最可能会成功,却无法探知哪一些最重要的特质促成了员工的成功。

加州大学伯克利分校的斯图尔特.罗素教授(Stuart Russell)曾指出,人工智能的威胁并非来自于它产生了自我意识,并群起反抗人类。而是人工智能的能力变得超强,而人类却为人工智能设定了拙劣或是错误的目标,让无意识的人工智能在倾全力执行任务以达成目标时,把人类引向灾难性的结局。

另外,有些算法的目标可以是相互矛盾的。譬如一个为了在最短的时间内达到平等分配资源的算法,却有可能犯下罔顾民生和程序正义、一意孤行以至侵犯无辜人士或单位的权益的恶果。我们要如何在为人工智能,以及数据驱动算法设定目标的过程中,平衡各方的利益、价值观,以及感受,是一个极费思量的命题。

《英国广播公司》(BBC)报导,为了防控新冠疫情,英国今年并未举行高考,考生的大学入学成绩由一套算法(Algorithm)得出。但在已放榜的“高考”成绩中,近40%的学生的成绩低于学校教师所给出的预估分数,造成许多学生无法升上大学,引发了考生和家长的抗议。英国政府随即宣布改变成绩计算法,以学校教师的预测成绩,以及算法所导出的成绩之间较高一方的分数,作为每个考生的最终成绩。

《麻省理工学院科技评论》指出,对算法的分析显示,这套成绩算法严重伤害了来自工人阶级和相对平穷社区的学生,并且夸大了私立学校学生的分数。 该篇评论主张,政策U转肇因于有关当局忽视了原本的最终目标,亦即帮助学生在充满焦虑的时期顺利的过渡到大学。

《世界你好:如何在机器时代扮演好人类》一书的作者的汉娜·弗莱(Hannah Fry)认为,在取消考试后,英国考试监管机构面临两个潜在目标。首先是避免准考生的成绩通胀,并使分数标准化;第二是以对大学录取有用的方式尽可能准确地评估学生。但在英国教育大臣的指示下,英国考试监管机构让算法优先考虑优化第一个目标。她直截了当的说: “算法为错误的事情进行了优化。”

这场政策风波理应成为急于把公共决策以“自动化”、“优化”和“客观化”之名假手于人工智能算法的人士的警钟。正如美国知名智库布鲁金斯研究院(Brookings Institution)一篇题为《合理质疑人工智能应对新冠病毒指南》的报告所提醒的那样:滥用人工智能系统来高效预测一个拙劣定义的命题之结论,比什么都不做更糟糕。

文章发表于2020年9月5日的《东方日报》

参考资料/Reference
[1] Harvard Business Review: Algorithms Need Managers, Too

[2] HBR: What AI-Driven Decision Making Looks Like

[3] BBC 中文:人工智能未来可能会太聪明令其意外摧毁人类https://www.bbc.com/zhongwen/simp/science-50234581 

[4] Science Focus: Stuart Russell - How to make AI that works, for us

[5] BBC: AI could become 'an enemy of the human race' warns expert

[6] BBC HARDtalk: Professor of Computer Science at University of California, Berkeley - Stuart Russell

[7] BBC Radio 4 - The Spark: Stuart Russell and Controlling AI

[8] BBC Business News: The ethics of AI

[9] BBC: A-levels and GCSEs: U-turn as teacher estimates to be used for exam results

[10] MIT Technology Review: The UK exam debacle reminds us that algorithms can’t fix broken systems

[11] The Telegraph: The ugly truth about exams: Ofqual has used an algorithm since 2011. And I resigned because of it

[12] The Guardian: Ofqual chief to face MPs over exams fiasco and botched algorithm grading

[13] The Brookings Institution’s Artificial Intelligence and Emerging Technology (AIET) Initiative: A guide to healthy skepticism of artificial intelligence and coronavirus

Saturday, July 25, 2020

AI的盲点与人类相似

Image Source: https://community.connection.com/can-ai-bring-network-security/
Image Source: https://community.connection.com/can-ai-bring-network-security/

近期由谷歌大脑创始人、前百度首席科学家,Deep Learning AI创办人,现为Landing AI首席执行官吴恩达(Andrew Ng)所主编的《The Batch》人工智能周讯,详细的报道了由杜克大学(Duke University) 科员人员所开发的Pulse人工智能驱动的图像锐化系统,把有色人种的肤色漂白化的科技界争议性课题。

最经典的例子是,当人们尝试锐化低像素的美国前总统奥巴马的人头照时,系统所导出经过修复像素质量的奥巴马俨然变成了一个白人。据报导,面子书首席科学家杨立昆(Yann LeCun)也加入了关于这个课题的推特争论,并主张人工智能运算结论的偏颇源自于训练数据严重偏向特定族群所致。 谷歌人工智能守则团队的联合负责人添霓.格布鲁(Timnit Gebru)却对此意见表示反对,认为把焦点只锁定在数据,会低估机器学习社群中的集体系统性偏见(systemic bias in machine learning community)。 随着论战日趋激烈,也是2018年图灵奖得主的杨立昆宣布从推特隐退。

前些时候,国际商用机器和亚马逊分别才在各方抗议美国警方执法不公、针对性刁难黑人以致佛洛伊德枉死的声浪中,宣布暂停提供警用人类面部识别系统。这是因为不少研究显示,美国执法单位所使用的人脸辨识系统能够准确辨识白人男性的身份,却在辨认有色人种尤其是黑人女性的面部时出现较大的误差。

有迹象显示,隐晦、难以完全根除的系统性偏见(数据和开发团队组成部分),以及实验室测试结果与系统落地实践后的应用成效落差,正一步步把纯数据驱动人工智能(pure data driven Artificial Intelligence)的投资氛围,从原本形势大好的人工智能之春,引向人工智能之秋。

也许,是时候连接主义(Connectionism)的拥护者承认,更严谨遵从工程管理规范的符号主义(Symbolism)如程序编写员以脑力用人手编译的规则导向(rule based)专家系统(Expert System)程序指令,能够弥补当前充斥人类以及人工采集数据认知偏差(Cognitive Bias)的机器学习与深度学习模型的局限,来强化这种当红人工智能技术的不足。

我想,现阶段数据驱动人工智能的强项是涉猎广和深,还有细,以及不时展现出其不意的战术惊艳或战略神来之笔(tactical and strategic brilliance),但不一定无时无刻准确;适合用来模拟使用者能够接受相当范围误差承受度的结果预测或结论推导,以及搜寻或配对大量模式相符或相近的物件辨识。但,不适合用来定夺攸关生命安全、命运际遇或刑罚处分的关键领域,因为哪怕轻微误差都会危害人命或造成执法或司法上的冤假错案。

麦肯锡全球研究院的专才曾在一个播客对谈中,提醒当人们希冀应用人工智能来解决人类在判断过程中惯常出现、难以避免的偏见时,可能正在不自觉中让人工智能产生另一种意想不到的决策偏颇。

还有就是,许多世界一流团队逐年激烈竞争,先后宣称取得的重大人工智能科研突破过程中所采用的评比标杆数据,都是一样的开放数据。这些数据的象征意义也许大于实际作用。因为现实世界的数据往往更多元纷呈、瞬息万变,非一般年度科研比赛所采用的相对静态式的标杆数据所能比拟。

大多数人都以公共数据作为衡量人工智能模型运算准确度的基准参照点。因此,如果每个人都应用有内在偏颇缺陷的相同一组开放数据,我们其实是在复制大规模的人工智能偏颇。

我对数据驱动人工智能的看法是,它们与人类的弱点没有不同,都受限于自己已知的世界和过往的经验,都需要兼听则明,都需要采集全方位的数据来降低主观判断的几率。

与其将重要的决策完全假手于人工智能,倒不如把人工智能当作其中一个有发言权和有投票权的决策伙伴。让它成为有能力质疑其他人的理据,并被其他决策者质询的对象。这能够避免人类为了克服人性难以回避的潜意识主观偏差,却草率的引进了偏差算法还未被人类透彻了解和杜绝的人工智能运算偏颇。

前谷歌大中华区总裁暨创新工场创始人李开复博士,近日对当下人工智能的能耐提出了相当中肯的评价。他主张AI更多是一项伟大技术,它将赋能给已有平台如互联网等,但是AI自身不大可能会产生一个平台。他以从AI+过渡到+AI来解释务实应用人工智能科技的做法。

李开复解释,在人工智能最火红的AI+时代(亦即AI技术占主导地位,AI主导企业方向的时代),AI公司是以技术为主,以天才科学家为核心创业。但这类公司非常少,毕竟懂得AI的科学家有限,他们遂被资本追捧,成为第一批AI公司。在务实应用人工智能的+AI时代(亦即传统行业加上AI应用的时代),传统公司的业务将主导的AI应用,传统行业利用AI来削减成本、赋能和提高效率。

文章发表于2020年7月24日的《东方日报》

参考资料/Reference
[1] World Economic Forum: AI can help with the COVID-19 crisis - but the right human input is key

[2] MIT Sloan Management Review: Data Science, Quarantined

[3] The Batch Newsletter: Bias in Plain Sight, Apple's New AI, Amazon's Firtual Fitting Room, Bot Besties, Researchers Go Ape

[4] 《经济学人.商论》: 路障 - 无人车显现了当今AI的局限性

[5] McKinsey Quarterly: The real-world potential and limitations of artificial intelligence

[6] The New York Times: Facial Recognition Is Accurate, if You’re a White Guy

[7] The New York Times: Many Facial-Recognition Systems Are Biased, Says U.S. Study

[8] Vox: Big tech companies back away from selling facial recognition to police. That’s progress.

[9] MIT Technology Review: Predictive policing algorithms are racist. They need to be dismantled.

[10] 李开复世界人工智能大会演讲:从AI+到+AI,以技术重构中国经济

Friday, June 12, 2020

反歧视黑人浪潮引发对偏差AI的审视

图片出处:《东方日报》
图片出处《东方日报》

美国黑人佛洛依德(George Floyd)遭白人警察粗暴对待致死而引发的全美示威抗议浪潮,不只引发了美国许多企业首席执行员纷纷发表公司内部声明,重申反对种族歧视的个人和公司立场;美国的科技界也有不少有识之士开始反思由于大多数人工智能系统开发团队被白人精英所垄断,团队种族分布不够多元,造成所采集的数据只反映白人的世界观而出现偏差和歧视有色人种的运算结论。 


近期由前谷歌大脑(Google Brain)主管、Deep Learning AI创办人,现为Landing AI首席执行官吴恩达(Andrew Ng)所主编的《The Batch》人工智能周讯,以及6月5日《麻省理工学院科技评论 . 算法 - 揭开人工智能的神秘面纱》每周快报(MIT Technology Review - The Algorithm Weekly Newsletter),不约而同的花费大篇幅探讨种族歧视和偏见,被内化于科技产品之中,或被执法单位滥用来监控平民的担忧,以及解决之道。 


另外,美国知名科技杂志《连线》(Wired)也在6月6日于面子书专页发布一个视频(请点击此链接观赏视频,以简明易懂的方式解释,为何数据驱动的人工智能算法会产生偏差,尤其是当人工智能建模所采用的数据往往聚焦在科研人员自身的族群时。这种偏颇人工智能算法的结果是,人工智能人脸识别系统能够以高准确率辨识白人和证明他们的无辜,却在辨认非白人时表现不佳,出现较高的误差率。执法人员基于人工智能系统倾向于锁定有色人种为可疑犯罪份子,而对无辜的有色人种展开调查,进而增加刑事迫害的几率。 


这个由《连线》杂志制作的视频直截了当的表示,人工智能算法之所以可能出现偏颇是一个简单的数学题。当开发团队只采集符合白人世界观的数据来培训人工智能建模时,数据驱动算法,也就自然而然地反映片面数据的面貌。 


事实上,早在2016年,美国调查式新闻网站《ProPublica》就发现,在佛罗里达州布劳沃德县(Broward County)所使用的一种评估犯罪份子重犯概率的刑事司法算法错将美籍非裔被告标记为“高风险”的比率,几乎是被错误标记的白人被告的两倍。 其他研究也揭露,以既有新闻文章来培训的自然语言处理模型(Natural Language Processing Model),也在语言的运用中,展示对性别的刻板印象,譬如说首席执行官、工程师和程序编写员大多被概括为男性;而侍应生和接待员则被等同于女性等。


我们应该如何杜绝或至少减低人工智能的偏差呢?


专家们建议人工智能系统开发团队成员的背景应该更加多元。涵盖不同性别、族群、宗教和世界观的团队能够更有效的预测、审查及发现系统算法所产生的偏见,并与受偏颇算法影响的个人、单位、群体与社区展开对话和获取反馈。


还有就是确保用来培训人工智能建模的数据具备广泛的代表性,并且摒弃使用数据标注人员会用来做出主观价值判断的标贴(label)或参数(parameter),如性别、种族和国籍等。这能够避免人类不自觉的把自己的片面世界观内化于人工智能的数据、算法或结论中,继而产生影响深远的负面社会、经济甚至是政治效应。 


也许让人工智能不偏不倚、绝对公正客观的执行日常细琐任务,以便让人类能够把更多心思投注在创意、创新事业,或需要发挥同情、同理心的人本互动一直是许多论者和预言家的梦想。但是,这些对人工智能的期许皆建立在机器终将具备主观能动性的设想。然而,在可预期的中短期内,这样的愿景也许不太容易实现。


这是因为,迄今为止最流行的两大人工智能技术流派,不论是联结主义(Connectionism)或是符号主义(Symbolism),主要还是着重于如何更高效的让人类将人本智能转换为人工智能(mapping human intelligence to machine intelligence)。


以人工神经网络(Artificial Neural Network)为代表的联结主义(Connectionism),近年来主要以机器学习(Machine Learning)和深度学习(Deep Learning)技术著称。人类通过喂养人工神经网络大量经过淬炼的高素质数据,来培训人工智能建模掌握辨识特定事物规律的能力。有专家为了让一般人更容易理解人工神经网络的运作原理,把它形容为以例子来解释世界(explain with examples),用例子而非指令来编程和告诉电脑如何运作的技术。


但是,值得探讨的是,开发人员用来培训人工智能建模的例子和专业领域数据不会从天而降;而且大量能够协助建模推导出精辟洞见的数据,可能以格式不一、条理紊乱的形式散布在不同的资讯媒介里。这些有用的例子或数据,需要领域专才、熟练和半熟练员工,以脑力和劳力来分析、分类、整理、校对,以达到去芜存菁的数据形态。这个“精炼数据”的过程,本身就是一种把人类脑力的判断,转换为人工智能建模识别能力的过程。可想而知,任何人类在数据采集、取舍和转换格式过程中的疏忽和好恶,最终都会反映在数据驱动的人工智能模型里头。


另一方面,以专家系统(Expert System)为代表的符号主义(Symbolism),则是人类程序编写员,把特定领域专家的系统设计,以程序逻辑和指令,编译成仿人的人工智能系统。人类专才的专业设计即便再优秀,再如何呕心沥血的积累了这一代人类专才以及前人的经验和智慧,还是难以完全跳脱于系统设计者、程序编写员以及他们所引用的前人智慧结晶之世界观。这些自觉和非自觉的主观意识,还是会投射在程序的算法里头。


防范和纠正资讯系统算法所产生的偏差,是人们共有的责任。 偏颇的系统算法和结论不仅仅在情感上伤害了受到歧视的人士,还制度性的降低了人们公平参与经济、社会和政治活动的机会。 


客观上来说,人工智能理应减少人类对数据的主观诠释,让数据驱动的机器学习算法根据“去偏见”的训练数据(de-biased training data),和有助于提高运算结论准确度的变量(variables),来学习执行新的任务。


文章以上下篇的形式发表于2020年6月11日以及6月12日的《东方日报》


参考资料/Reference

[1] 《The Batch》6月3日人工智能周讯

https://blog.deeplearning.ai/blog/the-batch-facebooks-unruly-algorithm-ai-that-does-the-dishes-new-life-for-old-data-models-that-take-shortcuts-yolo-returns

[2] 《麻省理工学院科技评论 . 算法 - 揭开人工智能的神秘面纱》6月5日号每周快报

https://forms.technologyreview.com/the-algorithm/

[3] MIT Technology Review: The activist dismantling racist police algorithms

https://www.technologyreview.com/2020/06/05/1002709/the-activist-dismantling-racist-police-algorithms/

[4] Business Insider: How Silicon Valley leaders, from Elon Musk to Tim Cook, are responding to the George Floyd protests

https://www.businessinsider.com/george-floyd-protests-reactions-tim-cook-elon-musk-sundar-pichai-2020-6

[5] The Verge: Big Tech companies are responding to George Floyd in a way they never did for Michael Brown

https://www.theverge.com/2020/6/5/21281017/amazon-apple-facebook-response-george-floyd-michael-brown-tech-companies-google

[6] Wired: How Algorithms Become Biased

https://www.facebook.com/wired/videos/934930453645402/

[7] Harvard Business Review: What Do We Do About the Biases in AI?

https://hbr.org/2019/10/what-do-we-do-about-the-biases-in-ai

[8] Harvard Business Review: 4 Ways to Address Gender Bias in AI

https://hbr.org/2019/11/4-ways-to-address-gender-bias-in-ai

[9] Hackernoon: The simplest explanation of machine learning you'll ever read

https://hackernoon.com/the-simplest-explanation-of-machine-learning-youll-ever-read-bebc0700047c

[10] McKinsey Global Institute: Tackling bias in artificial intelligence (and in humans)

https://www.mckinsey.com/featured-insights/artificial-intelligence/tackling-bias-in-artificial-intelligence-and-in-humans

[11] Wiley Online Library: Bias in data‐driven artificial intelligence systems—An introductory survey

https://onlinelibrary.wiley.com/doi/full/10.1002/widm.1356

[12] Google Developers: Text Embedding Models Contain Bias. Here's Why That Matters.

https://developers.googleblog.com/2018/04/text-embedding-models-contain-bias.html

大型AI模型的风险

所有权力都需要大叙述(grand narrative)来确立其合法基础以及正当性。譬如说,封建人治时代的君权神授;民主法治时代的天赋人权、社会契约论等。在数码时代,人工智能行使算法驱动自动化决策权力的依据,则是能够超越人类生、心理局限,杜绝人为偏见和偏差的翔实大数据。 数据驱动人...