行业云

人工不智能Steeper Than Expected

这么有新意的标题肯定不是我想出来的,它来自一本和我们今天话题密切相关的书Artificial Unintelligence: How Computers Misunderstand The World,作者是纽约大助理教授Meredith Broussard。

不过这周我们不介绍这本书,关于这本书的介绍网上也有。本周我们将介绍的是一系列文章,它们刊登在6月13日The Economist的名为“Artificial intelligence and its limits”的技术季刊(Technology Quarterly)上。

所选取的文章之间结构非常清晰,这让我省事不少。Reality Check为总述,Not so bigAlgorithms and armiesMachine, learning以及Road Block分别讲了大数据、算法、机器学习和自动驾驶所遇到的问题,最后的Autumn is coming是未来展望。我也将把这篇文章内容划分为几个相应的章节。

在我的印象里,没有任何一个科技话题能够像人工智能一样引起全民热议。2016年Alpha Go赢下了李世石后,AI开始引起媒体的关注,随后人工智能热度一路飙升。直至前两年,你可以在包括朋友圈在内的各种社交媒体上找到关于人工智能的报道和评论分析文章。一些大学还专门开设了人工智能学院。

现在,人工智能话题早已经淡出人们视野。一方面是由于群众对它的新鲜度已经消失,另一方面则是由于被捧上天的AI并没有达到理论上的预期。

那么,这几年在人工智能领域到底发生了什么呢?

本星期的文章很长,因此我把目录的主要内容提取了出来。

  1. 是时候面对现实了:弄清楚AI发展的困境必须理解两个方面的问题——实用性算法

  2. 数据:我们虽然有大数据,但是很难获得需要的数据,而且数据还有瑕疵

  3. 算法:AI的思维模式决定了其或许只能从事一些boring的工作。

  4. 自动驾驶AI的思维模式到底有哪些不同?


是时候面对现实了

“After years of hype, an understanding ofai’s limitations is starting to sink in.”

这是The Economist科学板块编辑Tim Cross对近几年人工智能的发展的盖棺定论。

然而,不得不说从2016年开始,在2018年到达了顶峰,人工智能的一直是炙手可热的话题。它的强大之处不仅在于能让科学技术人员沉迷其中,还是许多非理工科学专业人士茶余饭后的谈资。

这是由于人工智能,或者说是机器学习(machine learning)是一个应用非常广泛的技术general-purpose technology),足以影响整个经济体。

Google的总裁Sundar Pichai曾经把AI的发展定性为“比火与电更为深刻”(的变革)。这里补充一下,火指第一次工业革命,革命以火力(即燃料)作为主要动力来源。电指的则是第二次工业革命,电力成为主要动力来源。

McKinsey咨询公司认为在2030年之前,AI产业将会为全球的经济贡献13万亿美元。要知道中国的GDP在2018年的GDP也才是13.6万亿美元。

诚然,在大量乐观资本的注入下,人工智能行业的发展确实有着质的提高。机器的识图和运用语言的能力较之过去已经进入了一个新的阶段。如今搜索引擎、语音助手、人脸识别、社交媒体的舆论监控甚至是生物实验中都有AI技术提供的支持。

但是这些就够了吗?

要知道,我们对人工智能的预期可不仅仅是这些。那些足以改变世界的项目才是我们对人工智能的真正期待。

Source:Stanford Institute for Human-Centred Artificial Intelligence

我们最希望的自动驾驶和癌症药物研发却始终没有突破。

原因非常简单,AI技术太难应用了。拿自动驾驶技术来说,现有的AI技术难以让汽车能够安全地应对突发环境,只要搜一搜自动驾驶,从来不缺乏失败的新闻。

就算是放在抗疫当中,我们也很难发现人工智能的影子。接触人群的排查靠工作人员挨家挨户询问和打电话,临床治疗也关注的是现有药物,而不是依赖AI研发新药。遇到紧急情况时,人们总发现还是老办法好使。

现在AI项目的缓慢进展不仅让人们怀疑“第二个中国”能否出现,而且更让人困惑的是,人工智能是否真的能够像看上去的那样强大呢?

要回答这个问题,我们要弄清楚两个方面。

第一,实用性。机器学习有三个基础,算法、硬件和数据。其中数据是有限的,也不是永远可靠的。硬件成本则是高昂的。数据和硬件就成为AI技术难以应用和推广的障碍

第二,算法本身缺乏针对各个行业的灵活性,而且改良算法的需要大量人力成本。这涉及到更深层次的问题,AI确实是快速识别的利器,但是缺乏认知能力,而这种能力是我们大脑自身所具备的本能

AI缺乏推理能力,它的思维模式是归纳,是自下而上的,这就意味着它很难把发现的规律“普遍化”(generalise)地应用在其他场景中。而它在面对非常规的input时,极易做出错误、甚至让人难以理解的output。人的思维模式则是演绎,这是一种自上而下的推理。

接下来我们就把数据、算法和自动驾驶这三个方面目前所面临的问题展开讲讲。


数据

大数据,只是看上去很大

2018年,亚马逊在西雅图建起了第一家“GO”商店。这家商店里买东西既不用现金,也有不用在线支付,准确地说顾客只要从货架上“拿”东西就行了。

GO Store(via Supermarket News)

商店里的监控会锁定顾客的脸和行为,当顾客拿东西并离开时,这些信息就会被传送到AI系统,系统就会判断顾客是做出了“购买”的行为,随后根据顾客脸部信息,对相应的账户进行扣款。一笔交易就这样完成了。

这肯定很爽,但并不容易。光是能想象得到的困难就很多,比如在商店顾客很多时,AI如何锁定那些拿了商品却被其他人挡住的顾客呢?而且AI必须要知道个人和家庭的区别,比如孩子拿了商品后,钱要扣在父母的账户里。

这就衍生了很多问题,在父母和孩子相隔很远,或者就只有孩子一人参与购买的情况下,AI是否能像人类店员一样做出合适的反应呢?

要解决这些困难,目前的办法就是给机器输入大量的“训练数据”(training data),包括各种情形下的顾客购买商品的录像。

但是问题又来了,我们根本没有顾客购买商品的庞大数据库。亚马逊的员工当然自己可以产生数据,但是如果要让AI像人类店员那样应对真实世界里的各种事件,就必须要让数据尽可能涵盖各种可能性。

理论上来说,世界是充斥着各种数据的,这也是大数据分析的根基。市场研究机构IDC统计称,2018年世界共产生了33泽字节(ZB)的数据。泽字节是什么概念呢,1ZB是1024的四次方个GB,而1GB差不多就是一部小电影的大小。必须要7万亿张光盘才能容纳33ZB的量。

可是讽刺的是,许多AI项目停滞的症结就是由于没有足够的数据

这是为什么呢?

Cognilytica

AI咨询机构Cognilytica的工作人员Kathleen Walch认为主要有三点。

1. 可能该项目所需的数据根本就不存在,就像亚马逊的例子,没人会统计人们购买东西时的行为数据。

2. 可能项目所需要的数据被竞争对手垄断了。

3. 一些数据还没有办法被电脑处理

要知道,数据是机器学习的核心,基本上一个AI项目会把80%的时间花在数据上面。训练这些机器需要大量的、被标签出性质的数据,而这些数据的标签都是人标注上的。所以你会发现很多公司在开发人工智能的同时会雇佣大量的廉价劳力,他们所做的就是被数据打标签的没任何技术含量的工作。当然,这就意味着很大的开销。

我们再考虑到这个世界又在不断变化,机器必须要不断接受新的数据才能适应真实世界,是不是觉得这一切都更加复杂了呢?

数据也有瑕疵

除了数据难以搜集之外,更要命的是,这些搜集过来的数据很有可能是错的,这会直接影响到结果输出。

如果对于我们人类来说,当我们接受的数据告诉了我们100次“1+1=2”时,那么在101次接受的数据成了“1+1=3”,我们会自然而然地怀疑这个数据的准确性。

可惜机器并不会。对于机器来说,第101次的数据依然会被它看作是参考的一部分,从而推翻了之前形成的正确结论。

正如编程专家Donald Knuth在1968年就指出的那样,电脑只会“do exactly what they are told, no more and no less”。

Donald Knuth (via Business Insider)

上述的缺陷你可以理解为是计算机本身的思维方式问题,但是接下来我要说的就是我们人类自己的偏见了。

不会吧阿Sir,大数据也搞歧视?

很遗憾是这样的。

去年美国国家标准技术局(America’s National Institute of Standards and Technology)测试了200多个人脸识别的算法后发现一个问题,这些算法在识别黑人脸的准确度比白人脸要低得多

这是由于白人的脸在训练机器的数据中占有很大的比重,尽管白人的人口在美国并不那么大。

大数据还无法保证性别的平等。2017年亚马逊停用了一个通过CV来猎头的AI程序,因为这个程序对男性有着明显偏向性。

因为AI也喜欢男职工?当然不是了。这是由于AI在被训练时用的在某岗位的“成功人士”的CV大部分都是男性。在这种数据的基础上,AI不断自我强化,最终成了几乎一边倒的HR。

你也许会说,我们可以让AI在运行时忽略性别信息,这样不就平等了吗?

事情并没那么简单。比起人类来说,AI的聪明之处在于它们会利用代理变量(proxvy variable)来重构我们被认为应该被忽略的信息(性别、种族)。

什么是代理变量?当我们要去测量一个很难量化的东西时,用另一个和目标相关的,而且比较容易测量的变量来作为测量目标的指标。这个变量就是代理变量。

因为一个人的能力我们是很难直接测量的,那么我们就要通过一系列代理变量,比如ta的专业、学校、之前的工作、兴趣爱好等等这些代理变量来测一个人的能力。

这些代理变量又是和性别、种族有关的。当AI测量这些代理变量时,它实际上就是在重构这个人的性别、种族等我们认为应该被忽略的信息。


算法

我们真的没什么热情了

AI技术让各大公司受益良多。FB用AI监管舆论,Google用来改良搜索引擎并优化广告精确投放,亚马逊和网飞用来推销自己的产品。推特和抖音用AI匹配更多新用户。

看上去大家好像都很爱AI,但他们也只是想要维持现状而已。寻求更大的突破?对不起,现在没兴趣了。

MIT和Boston Consulting Group在大约2500名高管中进行了一项调查,发现其中70%表示AI项目目前产生的效果很小。大概有40%的表示在AI项目上的巨额投资目前基本没有任何回报。PWC咨询公司的调查显示,2020年只有4%的公司领导希望在公司推动AI项目,而在2019年还有20%。

造成这种局面的原因也有很多。最无聊的原因莫过于老生常谈的“变革困难”,相比于旧技术,新技术的推广应用面临着成本技术等问题。历史上这种现象比比皆是,早在19世纪末就有了许多电力发明,但直到30年后电力才被广泛采用。

另外一个原因就是AI专家的稀缺,所以雇佣AI团队需要极高的成本。相比于那些行业巨头,这种高额的薪资对于小公司是难以承受的。

一个更加微妙的原因则是技术层面的,公司必须明白这些AI技术被用于什么地方。这需要决策者对AI领域和自己的商业领域都有着深刻的认识。

我们都知道机器和人的认知模式是完全不同的。AI界有个著名的莫拉维克悖论(Moravec Paradox),根据这个悖论,机器非常善于利用复杂算法和形式逻辑,这些人类是无法比拟的。但是它们却在许多我们认为理所当然的能力上举步维艰,比如协同运动(co-ordinated movement)。

更具体点说,机器最能适应的是那种能够被精确定义(well-defined)的问题,有着明确的input,但是现实情况是很多事情是没有明确定义的。

一个可行的方案:“boring AI”

针对这个问题,英国自动化公司的Ocabo的工程总监James Gralton提出了他们行之有效的解决方案,那就是让AI做那些能够快速提供盈利的小而琐碎的工作。

在具体应用上,Ocabo利用AI技术对设备进行预见性维护(predictive maintenance)。AI可以在在机器运行时,对它的部位进行24小时的状态监测和故障诊断,判定装备所处的状态、并装备状态未来的发展趋势,从而预先制定预测性维修计划。

因为机器的运行模式是固定且明确的,所以这对于AI来说就是精确定义的问题,那么处理起来自然得心应手。

不过这种AI,也被称之为boring AI,因为它一点都不智能。


自动驾驶

考科目三是有理由的

2015年,特斯拉的老板Elon Musk曾大胆预测“完全自动”(complete autonomy)将在2018年到来。

现在我们都知道这是不可能了,事实上2018年发生的事让自动驾驶更加前景黯淡。当年Uber进行自动驾驶车辆的实地测试时发生了车祸,车辆撞死了一名推着自行车穿过马路的行人。这也是第一起自动驾驶车辆撞死人的事件。

自动驾驶最大的问题当然就是我们目前的技术没有办法做到人类驾驶车辆的效果。

环球网新闻

监管社交媒体、下围棋、投放广告这些工作AI干得确实很好,但是开车上路就是另外一回事了。

因为自动驾驶系统和原理和机器学习是一样的,就是大数据分析。电脑通过大数据学习,提取出开车的规则。

就像我们之前所说的,数据是有缺陷的,算法也是死板的,训练数据很难涵盖道路上变化莫测的情况,遇到紧急情况时人类可以根据本能做出适当的反应,而机器却很难

归根结底还是思维的不同

杜克大学Humans and Autonomy Laboratory主任Mary “Missy”Cummings对人类和机器思维方式的比较有着精准的描述。

Mary"Missy” Cummings (via APB Speakers)

人类更加适合处理非常规的情况,主要是因为我们能用“top-down”的推理,我们从经验中可以归纳出世界运行的普遍规则,这种普遍规则能被我们运用于那些之前从没遇到的复杂情况之中

AI虽然在自己擅长的识别和形式逻辑领域很有竞争力,但是如果情况一旦发生改变,AI就很难适应。它们缺乏推理(reason)和普遍化(generalise)的能力,因此它们只能被数据所禁锢

我们再举一个很有意思的例子。Google翻译一直是AI翻译界的标杆。但是2018年的一次实验里,这种印象就发生改变了。研究者发现,当在Google翻译中输入12个“dog”,将其翻译为Yoruba语(一种在尼日利亚和贝宁的语言),然后又将翻译的Yoruba语反译成英语,结果他们看到了这样的文本:“Doomsday Clock is at three minutes to twelve. We are experiencing characters and dramatic developments in the world, which indicate that we are increasingly approaching the end times and Jesus’ return.”

纽约大学的心理教授Gary Marcus认为,出现这种结果的原因是因为翻译AI并没有理解语言的基本结构,AI翻译仅仅只是各种语言的词汇之间的数据规则,但是并没有理解这些词汇的概念


我的评论

关于人工智能的反思有很多的书,像在文章开头所说的《人工不智能》。但让我印象更深刻的还是The Book of Why : The New Science of Cause and Effect,这本书已经出了中文版,译名是《为什么:关于因果关系的新科学》,作者朱迪亚·珀尔(Judea Pearl),现加州大学洛杉矶分校计算机科学教授。

这本书的一个重点就是强调思维比数据更重要,数据无法提供因果,思维能找出因果,而因果关系是人工智能突破的关键。因为人工智能现在的困境就是,AI无法理解自己在做什么,它能输出结果,但它不知道为什么会出这样的结果。

我们再进一步,什么是因果关系呢?

这里要提到三级因果思维

第一级思维叫“观察”,是通过数据分析做出预测(A发生了,B也会发生吗?)。这就是AI的思维模式,通过数据来对实际情况的结果做出预测。在亚马逊的“GO”商店里,AI就是通过之前积累的数据,来预测现在拿东西的顾客是不是要买东西。AI根本就不知道“买”这个行为的性质,它只不过知道某个动作是“买”的概率多大。这本质上是一个概率问题。

第二级思维叫“干预”,就是预判一个从前没有遇到过的事情的结果(如果我做了A,会发生什么样的结果?)。自动驾驶就是最需要“干预”思维的,因为道路情况千变万化,我们的数据根本无法涵盖所有的路况。比如你训练了机器,它知道如果一头鹿窜出来,应该停车,但如果是一只袋鼠呢?人的话肯定也会停车,虽然这个人之前不知道这是袋鼠,但他知道这是动物,如果继续行驶就会受到损失。机器就不知道了。

第三级思维叫“反思”,对先前经验的反思(如果我当初没做A,现在会怎么样呢?)。这就是尤瓦尔赫拉利在人类简史里提到的人类“认知革命”中最重要的技能——想象。通过对过去的反思,我们才能不断提高。

最终我们也要看到,AI的困境并不代表绝望,就像原文提到的AI行业只是进入秋天,而非严冬。

你也可能喜欢

发表评论

您的电子邮件地址不会被公开。 必填项已用 * 标注

提示:点击验证后方可评论!

插入图片
电影人工智能 投稿者
我还没有学会写个人说明!
最近文章
  • * 没有更多文章了
  • 热门搜索

    分类目录