Ad Code

机器学习人工智能的局限

严谨定义的软件工程(Software Engineering)起源于20世纪60年代末,旨在运用工程管理学的原则与方法,督导系统开发团队在有限资源的预算框架下,以群体协作方式来创建符合用户要求的软件产品。

通过软件工程所铸造的资讯系统,都在反映一种尝试解释世界(explain)、模拟世界(simulate)、改善世界(improve)和与周遭生态圈互动(interact)的世界观模型。

市面上的资讯系统大多乃程序编写员以脑力开发的软件(programmed software application)。然而近年来,人工神经网络(Artificial Neural Network)技术以机器学习(Machine Learning)的名目复兴,开始被大量应用于商用软件系统的开发。

传统编程与机器学习的主要区别如下:

传统编程乃人类专才通过编写规则导向的程序,来指导资讯系统进行逻辑演算;运算结论通常反映人类智慧的结晶。它的逻辑结构严谨、透明与分明。但编程程序的长短不一定与运算结论的质量与精确度成正比。

机器学习则是主要倚赖学习人类或辅助系统所喂养的数据,来摸索出特定模式的演算逻辑,而非由人工研创的条件导向或规则性导程序来进行运算。数据的规模和准确度,一般上与运算结论的质量和可信度成正比。台湾和信治癌中心医院院长黄达夫在谈到人工智能应用于医疗用途的挑战时,就提出了十分精辟的见解:人工智能的训练需要大数据,数据越大,训练出来的结论就越可靠;然而如果资讯不精准,数据越大,偏差反而会被扩大。

现阶段,机器学习一般只专精于单一领域的个别任务。却不便于转移应用在其他不相关的领域。另外,在缺乏大量可靠数据的培训下,机器学习也难以举一反三,见微知著。机器学习的强项在于专精任务的自动化和优化。谷歌大脑(Google Brain)创始人暨前百度首席科学家吴恩达(Andrew Ng)建议,任何人类在一秒钟内可以决定的事务,都适合通过人工智能系统来实现自动化。然而,也有业界人士指出,机器学习模型的设置极度强调规范性和稳定性,任何尝试改变机器学习系统任务条件的轻微调度,都有可能导致系统的作用以失败告终。譬如,如果开发团队改变棋盘行列的数目,围棋人工智能系统有可能会“失智”,需要重新培训。

事实上,以人工神经网路(Artificial Neural Network)为骨干的机器学习(Machine Learning)和其分支深度学习(Deep Learning)的缺陷,近年来一直被学界反复的讨论和批判。学者们所担忧的包括:这些当前最火红的人工智能技术只能呈现数据与演算结论的相关性而非因果逻辑;运算结论反映数据采集人的主观偏好,并出现歧视少数族群和弱势群体的偏颇;深度学习过分耗费人力、数据和软硬体等资源(resource intensive),导致数据预备和演算过程排放大量二氧化碳;人工智能模型过度倚赖大数据,无法像人类一样见微知著,自行“融会贯通”;人们过分夸大机器学习的功效以至出现“大刀被用来锯小树”的资源错置现象等等。

《麻省理工学院科技评论》(MIT Technology Review)就曾报道,一个6个月大的婴孩,不会对一架盘旋在空中的玩具拖车报以奇异的目光。几个月后再对他进行同样的实验时,他却会对这样的现象感到有所不妥。这是因为他已经隐约学会了万有引力的概念。

面子书首席人工智能科学家兼纽约大学教授杨立昆(Yann LeCun)推论,没有人告诉这个婴孩悬空的物体会下坠,而婴孩也没有复杂的机械操控系统,但婴孩能够通过观察理解世界。

杨立昆教授相信,幼儿的学习方式是弥补当前人工智能科技缺陷的关键。他表示,孩童在看了两张大象的照片后就能基本掌握对大象的了解。但深度学习演算法(Deep Learning Algorithm),却需要观看不下几千张的大象照片来达到同样的学习效果。一个少年在学习驾驶超过20个小时后,就能在未曾遭遇车祸的情况下避免发生驾驶意外。深度学习的分支 - 强化学习演算法(Reinforcement Learning Algorithm),却需要经历几百万次的实验和许多次的意外,才能让无人驾驶汽车达到安全行驶的目的。

杨立昆教授认为,现下被低估的无监督学习(Unsupervised Learning),将会是达至科研突破的关键。当下最火红的监督式学习(Supervised Learning)和强化学习(Reinforcement Learning),主要倚靠人们灌输引导式信息来达到人工智能的开发目的。无监督学习(Unsupervised Learning),或杨立昆教授所钟意的自我监督学习(Self-supervised Learning),却能有效摸索出数据的模式,通过吸收部分数据,来举一反三预测出其他数据的概貌。

深度学习技术的鼻祖杰弗里.辛顿(Geoffrey Hinton),还有带领谷歌AlphaGo人工智能团队以强化学习技术打败前世界第一围棋棋手的DeepMind执行长杰米斯·哈萨比斯 (Demis Hassabis)皆表示,我们距离创建足以匹比人类智能水平的通用人工智能(Artificial General Intelligence)尚远。谷歌大脑创始人吴恩达(Andrew Ng)更直接了当的表示,现阶段忧虑人工智能会超越和操控人类、出现高智能杀人机器人作乱等联想,就好比我们担心火星会发生人类人口爆炸一样没有凭据。

文章发表于10月5日的《东方日报》

参考资料:

1. Gartner: debunking five artificial intelligence misconceptions
https://www.information-age.com/five-artificial-intelligence-misconceptions-123479166/

2. Yann LeCun: Deep Learning, Convolutional Neural Networks, and Self-Supervised Learning | AI Podcast
https://www.youtube.com/watch?v=SGSOCuByo24

3. MIT Technology Review: The AI technique that could imbue machines with the ability to reason
https://www.technologyreview.com/s/613954/the-next-ai-revolution-will-come-from-machine-learnings-most-underrated-form/

4. 远见杂志: AI的研发,输入垃圾,出來就是垃圾!
https://gvlf.gvm.com.tw/article.html?id=68035

5. MIT Technology Review: Is AI Riding a One-Trick Pony?
https://www.technologyreview.com/s/608911/is-ai-riding-a-one-trick-pony/

6. Venture Beat: Geoffrey Hinton and Demis Hassabis: AGI is nowhere close to being a reality
https://venturebeat.com/2018/12/17/geoffrey-hinton-and-demis-hassabis-agi-is-nowhere-close-to-being-a-reality/

7. Stanford Graduate School of Business: Andrew Ng: Why AI Is the New Electricity
https://www.gsb.stanford.edu/insights/andrew-ng-why-ai-new-electricity

8. MIT Technology Review: We can’t trust AI systems built on deep learning alone
https://www.technologyreview.com/s/614443/we-cant-trust-ai-systems-built-on-deep-learning-alone/

Post a Comment

0 Comments