Ad Code

本周重磅人工智能新闻

这个星期有两则非常重要的人工智能新闻。

(A)第一则是由谷歌的子公司DeepMind所开发的AlphaFold系统在Critical Assessment of Structure Prediction(CASP)结构预测关键评估挑战赛中,已高达近90%的准确度,成功预测蛋白质的3D形状。不少媒体用人工智能解开了困扰人类50年的生物学蛋白质折叠难题来形容这项科研突破。

据报道,发起于1994年,俗称为“蛋白质奥林匹克”的CASP竞赛每两年举行一次,参赛团队需要预测大约100种蛋白质的结构,旨在比较电脑算法预测的蛋白质三维结构和实验室研究的结果。  CASP  衡量准确度的主要指标是 GDT(Global Distance Test), 以范围从0到100的分数呈现,90分以上的得分,就算是与实验室的预测结果相当。

综合媒体报道指称,AlphaFold使用深度学习技术 ,来学习和研究全球数据库中所保存的已知蛋白质的三维形状,并持续改进算法。继2018年首次参赛后取得不俗成绩后,今年它再次参赛,其GDT总体中位值得分为92.4(a median score of 92.4 GDT overall across all targets),在最具挑战性之蛋白质的三维结构预测上,也获得87分。

早在2018年11月首次参加CASP竞赛时,AlphaFold就已经在98个参赛对手中名列第一,成功从 43 种蛋白质中,准确的预测出了 25 种蛋白质的3D折叠结构。而同组比赛中排名二的团队,仅准确预测出了 3 种蛋白质的三维折叠结构。无论如何,  AlphaFold于2018年首次参赛的总体表现离媲比实验室标准的90分尚远。在那一届的比赛中,  AlphaFold的GDT评分中位值(median)为68.5分,没有达到项目认可的90分。


《英国广播公司》BBC科学事务记者布里格斯(Helen Briggs)赞叹, AIphaFold人工智能系统的成效惊人,用几天的时间,就取得了媲美实验室几十年的研究水平。(The AI program was able to do in a matter of days what might take years at the laboratory bench.)

(B)第二则重磅新闻则是,谷歌解雇一名积极研究和揭露数据驱动人工智能算法呈现歧视女性和有色人种偏颇结论的知名人工智能伦理守则专家添霓.格布鲁(Timnit Gebru)。

这几年来,不少研究人员和学者,着手研究和发表论文揭露,开发人工智能系统的人们可能会在建模的技术过程中,下意识的内置或移植自己的偏见。 一些公共实验表明,这些本应绝对翔实、客观、杜绝人为偏见的系统,在与有色人种的互动中,往往产生偏差结论--一些专家学者倾向认为,这很可能肇因于少数族群和女性在创建这些系统的开发人员团队中,代表性不足。

《麻省理工学院科技评论》(MIT Technology Review)高级记者珂灵(Karen Hao)在近日撰写的一篇报道中指出,添霓.格布鲁(Timnit Gebru)是AI伦理学研究领域备受尊崇的领军人物。添霓在前几年与他人合撰一篇开创性论文而蹿红,该论文揭露人工智能面部识别系统在辨识有色人种和女性时准确度低于系统识别白人男性时的表现,这意味着使用这类系统最终可能导致女性和有色人种受到歧视。 她还共同创立了黑人进军人工智能领域的亲和力小组(Black in AI affinity group),并积极倡导科技行业的人才组成的多元性。 在谷歌的协助下,添霓.格布鲁(Timnit Gebru)所打造的团队堪称AI领域最为多元化的团队之一,该团队拥有许多顶尖专家。 备受同行倾羡。

《纽约时报》(The New York Times)形容,添霓.格布鲁的离开,突显了谷歌内部直言不讳的员工们与精打细算的高层之间日益紧绷的关系。《纽约时报》认为,人们对谷歌为建立公平可靠的技术所做的努力也表示担忧  --  更可能对黑人技术人员和近年来告别学术界前往硅谷从事高薪工作的研究人员产生寒蝉效应。

谷歌发言人拒绝置评添霓.格布鲁的离职。 而在发给谷歌内部员工的电子邮件中,谷歌人工智能负责人杰夫·迪恩(Jeff Dean)表示, “添霓.格布鲁的离去是一个困难的时刻,尤其是考虑到她所参与的重要研究主题,以及谷歌作为一个机构还有一家公司对负责任的人工智能研究领域的深度重视。”

《麻省理工学院科技评论》高级记者珂灵在她所发表的专题报道中指出,一系列推文、外泄的电子邮件和媒体文章显示,格布鲁(Gebru)的解职乃她近期共同撰写的另一篇论文,与公司的旨意产生冲突的最终结果。 《麻省理工学院科技评论》所获取的论文初稿强调了大型语言模型的风险(the risks of large language models),包括耗电量、碳排放量、建模过程中高昂的数据运算成本等,而大型语言模型正巧是谷歌业务当前的关键技术。

谷歌AI负责人杰夫·迪恩(Jeff Dean)在一封已在线公开发布的内部电子邮件中告诉谷歌同事,格布鲁(Gebru)合著的论文“没有达到我们(谷歌)的出版标准”。

格布鲁(Gebru)此前向公司表示除非谷歌答应她对发表该篇论文所开出(而谷歌一直不认可)的条件,否则她将辞职。格布鲁(Gebru)后来在推特上说,她向公司要求从假期回来后对她和谷歌之间的雇用展开一次最后的谈判(“a last date” for her employment)。然而,谷歌却在她销假回公司之前,已把她从公司电子邮件帐户中移除。

新闻资料来源:

[1] https://www.bbc.com/zhongwen/simp/science-55191242
[2] https://www.bbc.com/news/science-environment-55133972
[3] https://www.jiemian.com/article/5342091.html
[4] https://www.ithome.com/0/522/247.htm
[5] https://www.huxiu.com/article/274628.html
[6] https://www.nature.com/articles/d41586-020-03348-4
[7] https://zhuanlan.zhihu.com/p/323407792
[8] https://www.businessinsider.com/timnit-gebru-ethical-ai-fired-google-2020-12
[9] https://www.nytimes.com/2020/12/03/technology/google-researcher-timnit-gebru.html
[10] https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/
[11] https://www.mdeditor.tw/pl/p5u8
[12] https://www.zhihu.com/question/304484648
[13] https://hacker-news.news/post/25254772
[14] https://www.nature.com/articles/d41586-020-03348-4

Post a Comment

0 Comments