人工智能或许是近10年来最炙手可热的科技显学。
虽然,电动汽车公司特斯拉首席执行官依隆.马斯克(Elon Musk)在2015年断言由人工智能驱动的全自动无人驾驶汽车将在2018年上路的预言没有成真。但人工智能对公共、私人乃至私密领域的介入,或许比我们所想象得到的还要广泛和深入。
美国在线科技新闻杂志《The Verge》很中肯的描述了人工智能当前的概况:尽管“人工智能”一词毫无疑问的被滥用了,但这项科技的应用,不论好坏,比任何时候都深远。 例如,它被部署在医疗保健以及战争中; 它协助人们创作音乐和编撰书籍; 它会审查应聘者的履历;评估借贷者的信用评级;它还能调整我们用智能手机拍摄的照片。 简而言之,无论喜欢与否,人工智能都会做出影响人们日常生活的决策。
据《华盛顿邮报》一篇发表于2019年的专题报导,包括希尔顿、联合利华和高盛在内的大型企业,已经在招聘流程中嵌入人工智能程序。据称,迄今为止,多达 100 万名求职者受到了 AI 招聘系统的评估。
一些公司也已经开始安装人工智能监工系统,通过影像还有人类工作者与资讯系统的互动频率,以及所创建的数码工作文档等数码化数据,来监视员工有无偷懒,还有评估员工的工作成效。人工智能俨然成为了人类工作效率评估标准的制定者和监督者。
这样的发展趋势,尽管会引发人类的绩效评估,是否能够单凭人们与资讯系统互动所留下的数码轨迹(digital trace)来量化的疑虑,譬如,数码系统鞭长莫及的非典型创意和创新,或非数码化劳力与脑力成果,能否获得AI系统公平的对待?然而,人工智能驱动的数码监工趋势,在新冠肺炎促使全球可观人口长期保持社交距离和在家工作的背景下,很难被逆转。
无论如何,正如知名MIT教授阿莱克斯·彭特兰教授(Alex Pentland)所言,当前的主流人工智能技术深度学习需要庞大的数据源,而且要求数据长时间恒定平稳,以保证模型训练结果的可靠性。另外,数据驱动AI系统的智能依据不会凭空出现,其智能演算法的优劣更多时候取决于以过往人类的决策依据作为训练数据源的素质。
亚马逊在2017年决定放弃继续开发AI招聘系统的个案,应该成为政策制定者和决策拍板者的借鉴。事件起因于亚马逊的实验性AI招聘系统歧视女性。造成系统偏见的原因是亚马逊以公司过去10年内收到的履历来培训审查求职者条件的人工智能模型。然而大部份求职者的简历资料属于男性,结果导致人工智能模型的运算结论以男性观点为中心。
诚然,面对复杂、 多变 、难测,并充满制度性数码化偏见的现实世界,也许更严谨和周全使用人工智能的方式,是纳入人类专才审核机器演算法结论的决策流程(human in the loop),以避免人类过往的偏颇和考量的不周全,通过训练数据被转换成智能系统的制度性偏见。
普华永道(PwC)在2017年的一份报告中,以人类监督者介入资讯系统决策的层度,将人工智能系统分为四个等级:
(一)自动化智能(Automated Intelligence):能够自动执行例行或非例行既有任务的人工智能。 系统不会自我检讨、改进或以新的方式来执行自动化任务。
(二)辅助智能(Assisted Intelligence):协助人类做出决定或采取行动的AI系统。 它无法从系统与人类或外在环境的互动中自主学习。 它能够帮助人类更好、更快捷地执行任务。
(三)增强智能(Augmented Intelligence):增强人类决策能力,并不断地从与人类和周遭环境的互动中学习和改进的AI系统。 它能够帮助人们做出更好的决定。
(四)自主智能(Autonomous Intelligence):可以适应不同情况并在无需人工协助的情况下自主行动的AI系统。 它使决策过程完全自动化,并持续自主优化,是无需人工介入的智能系统。
种种迹象显示,以过往优质数据作为训练数据的机器学习和深度学习人工智能系统,还在第一至第三等级的范围内徘徊,距离达到自主智能能耐的阶段尚远。
在自动化几乎成为不辩自明的企业教条和定理的当代,不妨想想,在数据还没有数码化的过往数千年里,人类一直以信仰、伦理、道理、 原理、定律、规律、数学方程式、道德价值和法律规范来代表知识、制定方针和做决策。
在海量数据数码化的年代,人类尝试通过人工智能从数据中查找利益最大化和资源应用最优化的趋势,来制定方针和下达决策。人类相信数据是翔实和反映事实的,故人工智能驱动的决策将会公允、不偏不倚。
在人类历史中,纯粹以数据作为决策考量依据的时代,可能还不够久远。我们能从数据驱动决策获得什么启发和教训?过份迷信数据所勾勒的趋势会不会让我们典当原则?纯粹数据导向决策会不会比以原理、道理和价值来制定方针的传统方式来得妥善,值得我们进一步探究。
1 Comments