如果说IQ用来测量一个人的智商,EQ用来评价一个人的情商,那么AIQ就是评价一个人对人工智能的认知。AIQ的两位作者都是数字工程师,他们认为要适应未来“人+机器”的工作场景,每个人都需要培养AIQ,提升对AI的认知,以便更容易适应科技快速迭代改变的未来。此外,要使人类有能力监督AI在“人+机器”的协作中成为关键的一环,其前提也是必须对AI和数据科学有基本的认知。
培养AIQ首先要建立对当下AI发展的认知。很多人把AI看得神秘莫测,的确,现在AI可以做很多神奇的事情,比如图像识别、语音识别、辅助驾驶、自动翻译等,甚至在一些情况下做得比大多数人还好。但目前的AI仍然不具备人类的聪明才智,它只听得懂一种语言——数字。
AI可以处理各种信息,只要输入的指令是数字就行。所以AI系统要起作用,需要将各类不同的输入都变成可以处理的数字语言,数据工程师把这种过程称为“特征工程学”,比如把图像和语言的数字特征提取出来,变成机器听得懂的语言。
以自然语言识别为例。以前处理语言的思路是自上而下的编程思路,希望灌输给机器所有的语言规则,同时穷尽任何特例。结果几十年来,语言识别都没有大的进步,因为语言太随意、太复杂了。AI的自然语言识别完全走了另外一条路,让机器做它最擅长的事情—找到文字与文字之间的相关性。机器回答的是一个最基本的问题:能不能让意思相同的词,其对应的数字也类似?当机器可以给每个单词和词组一个描述性的数字后,就可以用数字的加减乘除来帮助它做出正确的判断。比如说,如果问机器一个问题:英国的伦敦,对应的词应该是意大利的什么?机器就可以这么计算:伦敦-英国+意大利=罗马,因此得出罗马这个正确答案。
现在的AI,无论是亚马逊的Alexa,或者苹果的Siri,都并不懂得语言的含义,却能准确判断文字之间的相关性。不究原因,只强调结果。AI能带来高效率,而我们暂时不用担心它会和我们有一样的智慧。
这也是培养AIQ的第二个要点:不用过早担心AI是否会取代人类。因为现在的AI发展距离通用人工智能(AGI,Artificial General Intelligence)、距离赶上人类的智能还很远。数字工程师现在要花90%的时间处理数据,把非标准的数据变成机器可以读懂的结构化数据,只有10%的时间用在推进AI的发展上。因为AI只听得懂数字,无论是对图像还是文字的识别,都是找出它们的数字属性,然后做它最擅长的事:快速地计算并找到准确的关联。
培养AIQ的第三个要点:理解人与现在的AI相比到底有哪些优势和劣势。
十几年前,时任美国国防部部长的拉姆斯菲尔德曾经特别就美军在伊拉克面临的风险做过一个四象限图的分析,分别是美军知道美军自己知道的风险(已知的已知),美军知道美军还没有掌握的风险(已知的未知),美军并不知道自己已经掌握的风险(未知的已知),以及美军根本不知道自己还不知道的风险(未知的未知)。
如果以美国掌握的全球恐怖主义信息为例:第一种风险是美国知道本•拉登建立了基地组织;第二种风险是美国知道自己并不知道本•拉登基地组织的目标到底是什么;第三种风险是CIA(美国中央情报局)已经知道与本•拉登相关的人曾经在美国学习飞行,并且再次入境美国,但是并没有就这一重要信息做出分析,因此美国的决策者并不知情;第四种风险则是美国根本无法预测2001年纽约的“9•11”事件会发生。(www.daowen.com)
同样,套用这四个象限分析,也可以清晰地分辨人与机器之间的差别。
应用场域最广的是“已知的已知”领域,即有着大量数据,而我们也很清楚地知道如何做出好的预测的领域,比如防欺诈、医疗诊断等。在这些领域AI已经大规模取代人,因为机器从大数据中找出相关性的速度比人快得多。
如果反思一下2008年的金融危机,首要问题是为什么评级机构当年没有看到次级债(CDO,担保债务凭证)的风险。答案并不是因为评级机构当时没有充足的数据。症结在于他们设计的风险模型中并没有考虑到不同市场价格变动的相关性,比如纽约和芝加哥的房价同时下跌给CDO带来的风险。有了AI就不再会出现这种问题,因为可以从更多的维度对数据做出分析。
“已知的未知”领域将仍然是人的领地。这个领域并没有大量数据,无法帮助AI做出好的预测。相反,人却能利用小数据来举一反三。当然这也恰恰是机器学习发展非常快的领域,如果机器能够学会如何像人一样学习,其智慧会进一大步。
在“未知的未知”领域,人和机器都束手无策。黑天鹅就是一种未知的未知,人和机器都很难预测。原因很简单,AI从本质上仍然是利用历史数据预测未来。如果某个新物种,从来就没有人见过,又从何预测呢?比如,共享音乐平台Napster给CD行业带来的毁灭性打击就很难预测。
在最后一个领域,就是“未知的已知”领域,AI和人一样容易犯错,而应用AI会带来更大的风险,因为AI可能飞快地将错误放大千百倍,让人来不及应对。所谓未知的已知,意思是我们已经能做出预测(不管是人还是AI),却并不知道背后真正的原因,甚至有时候以为自己知道原因,其实却是错的。
国际象棋大师卡斯帕罗夫(Garry Kasparov)在《深度思考》(Deep Thinking)中就提到一个早期研究国际象棋的AI犯错的例子。AI在看到大量棋谱后,发现很多象棋大师在牺牲王后之后,往往很快就能有致赢的后手,所以这种AI会开局就选择放弃王后。这就是在“未知的已知”领域犯错的例子,因为它把相关性错认为是因果性,把现象——好的棋手有的时候会丢弃王后——当作制胜的原因。
有了这四个象限的分析,人与机器的差别也就非常清楚了。简单重复的劳动,甚至一些中等的职位,比如起草标准合同的律师工作,都会被机器所取代,因为有着大量数据可以培养出强大的AI;但是在探索未知领域,人类仍然有巨大的潜力。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。