自1956年在达特茅斯夏季人工智能研究会议上人工智能概念被第一次提出以来,人工智能技术的发展已经走过了60年的历程。在这60年里,人工智能技术的发展并非一帆风顺,其间经历了20世纪50—60年代以及80年代的人工智能浪潮期,也经历过70—80年代的低谷期。在这60年里,伴随信息技术以及生物、机械等相关技术的发展,人工智能在概念和技术上不断扩展和演进。
1.人工智能的第一次发展浪潮
人工智能的起源几乎与电子计算机技术发展同步,早在20世纪40年代,来自数学、心理学、工程学等多领域的科学家就已经开启了通过机器模拟人类思想决策的科学研究,被誉为“人工智能之父”的阿兰·图灵在1950年提出了检验机器智能的图灵测试,预言了智能机器的出现和判断标准。1956年夏天,在达特茅斯夏季人工智能研究会议上,约翰·麦卡锡、马文·明斯基、纳撒尼尔·罗切斯特和克劳德·香农,以及其余6位科学家,共同讨论了当时计算机科学领域尚未解决的问题,第一次提出了人工智能的概念。在这次会议之后,人工智能进入了第一次发展浪潮期(20世纪50—60年代)。在这一阶段,学者对于人工智能的发展十分乐观,有学者畅想在20年内,实现与人类相媲美的人工智能。
在人工智能发展的第一次浪潮中,人工智能算法、计算机视觉、自然语言处理、语音识别等人工智能技术开始登上历史舞台,虽然很多人工智能技术仍停留在实验室中,但是为日后人工智能的蓬勃发展奠定了基础。
在这一阶段,人工智能在算法和技术领域产生了很多进步。例如在算法领域,机器学习算法领域的一个重要分支——神经网络,获得了初步的发展。1958年,罗森布拉特(Rosenblatt)在计算机上模拟实现了一种叫作“感知机”(Perceptron)的模型,这个模型可以完成一些简单的视觉处理任务,也是后来神经网络的雏形、支持向量机(一种快速可靠的分类算法)的基础[8]。同时期,人工智能的重要分支——专家系统出现。1965年,费根·鲍姆在斯坦福大学创建了知识系统实验室,开启了他最重要的研究——专家系统。这一年,他设计出世界上第一个专家系统——Dendral,该系统最初的任务是帮助化学家识别未知的有机分子。Dendral的发明为下一代专家系统奠定了基础。此外,在这一时期,MYCIN疾病诊断和治疗系统、PROSPECTIOR探矿系统、Hearsay-Ⅱ语音处理系统等专家系统的研究和开发,将人工智能引向了实用化。在语音识别方面,1952年,AT&T贝尔实验室开发出了一款名为Audrey的语音识别系统,能够识别出10个英文数字,正确率高达98%。自然语言处理方面,1954年,乔治敦大学利用IBM-701计算机进行了世界上第一次机器翻译试验,将几句俄语翻译成了英文。计算机视觉方面,人脸识别的工程化应用开启,此时的人脸识别主要通过分析人脸器官特征点及其之间的拓扑关系进行辨识。这种辨识方式过于简单,因为人脸的姿态一旦发生变化,精确度就直线下降,所以这时的人脸识别技术的适用性较低。此外,在算法方面,1957年,艾伦·纽厄尔和赫伯特·西蒙开发出最早的人工智能程序设计语言——IPL语言(Information Processing Language)。
现在提到人工智能,很多人第一反应是机器人,其实在人工智能第一次浪潮期中,已经出现了不同的机器人,这里不得不提一个很重要的科学家和实验室,分别是“人工智能之父”马文·明斯基和麻省理工学院人工智能实验室(MIT AI Lab)。马文·明斯基是达特茅斯会议的组织者之一,1959年,他与约翰·麦卡锡成立麻省理工学院人工智能实验室,这也是世界上第一个人工智能实验室。可以说,麻省理工学院人工智能实验室引领了全球人工智能的发展,从这个实验室里诞生了很多“超前的”人工智能技术。马文·明斯基发明了世界上最早的能够模拟人类活动的机器人Robot C,以及带有扫描仪和触觉传感器的14度自由机械手。1963年,马文·明斯基又发明了头戴式图形显示器,率先提出了“远程呈现”的概念,成为虚拟现实的先驱。除了马文·明斯基发明的Robot C,1966年,聊天机器人ELIZA诞生,它是自然语言处理社区已知最早的聊天机器人。
但受限于当时的软硬件条件,那时的人工智能研究多局限于对人类大脑运行的模拟,研究者只能着眼于一些特定领域的具体问题。20世纪70—80年代,人工智能的发展进入了第一次寒冬。由于对人工智能技术的盲目乐观,大量的资金投入并未取得充足的进展,逻辑证明、神经网络、增强学习等技术只能够用于很狭小的任务范围,再加上公众对人工智能的误解,人工智能的发展陷入了低谷,只有少数的技术领域有所进展。
2.人工智能的第二次发展浪潮
到了20世纪80年代,人工智能进入了第二次发展浪潮期。在这一阶段,人工智能“专家系统”开始被全世界的公司所应用,神经网络也获得了商业上的成功,日本开启了第五代计算机工程,人工智能重新获得大量拨款,再一次进入繁荣期。
20世纪80年代,大量的实践证明了专家系统的实用性,专家系统开始为全世界的公司所采纳。1980年,卡内基梅隆大学为数字设备公司(Digital Equipment Corporation,DEC)设计了一款名为XCON的专家系统,这是一个巨大的成功。在1986年之前,它每年为公司省下4000万美元。此后全世界的公司都开始研发和应用专家系统,到1985年它们已在人工智能上投入10亿美元以上,大部分用于公司内设的人工智能部门。
同时期,各国对人工智能的投资大大增加。1981年,日本向全世界宣告开始研制第五代计算机,并在1982年4月制订了“第五代计算机技术开发计划”,即“知识信息处理计算机系统KIPS”,其目的是使逻辑推理达到数值运算那么快,开发出能够与人对话、翻译语言、解释图像,并且像人一样推理的机器,总投资为1000亿日元。受到日本的影响,美、英等国家纷纷响应,英国开启了耗资3.5亿英镑的“Alvey工程”,美国也开始行动,美国一个企业协会组织了微电子与计算机技术集团(Microelectronics and Computer Technology Corporation,MCC),向人工智能和信息技术的大规模项目提供资金,美国国防部高级研究计划局(Defense Advanced Research Projects Agency,DARPA)也组织了战略计算促进会(Strategic Computing Initiative,SCI),加大了对人工智能领域的投资。
此外,在这一时期,神经网络也再次迎来复兴。1982年,物理学家约翰·霍普菲尔德(John Hopfield)证明一种新型的神经网络(现被称为“Hopfield网络”)能够用一种全新的方式学习和处理信息,可以解决一大类模式识别问题,还可以给出一类组合优化问题的近似解。他的研究引起了巨大的反响,人们重新认识到神经网络应用的现实性。大约在同时,戴维·鲁姆哈特(David Rumelhart)等学者成功实现了使用“反向传播(Backpropagation,BP)算法”来训练神经网络,并在很长一段时间内将“反向传播算法”作为神经网络训练的专用算法。这些发现使1970年以来遭人遗弃的神经网络重获新生,并在20世纪90年代获得了商业上的成功,它们被应用于光字符识别和语音识别软件。
好景不长,20世纪80年代末90年代初,人工智能的发展进入第二次寒冬。人工智能技术高昂的成本,国家对人工智能拨款减少,专家系统的应用场景有限等原因造成了人工智能再次陷入低谷。80年代晚期,美国战略计算促进会大幅削减对人工智能的资助。美国国防部高级研究计划局的新任领导认为人工智能并非“下一个浪潮”,拨款将倾向于那些看起来更容易出成果的项目。1991年,人们发现10年前日本人宏伟的“第五代工程”也并没有实现。事实上其中一些目标,比如“与人展开交谈”,直到2010年也没有实现。
3.人工智能的第三次发展浪潮
20世纪90年代后期,人工智能再次进入新的发展浪潮期,这一浪潮一直持续到现在。在这一时期,网络技术特别是互联网的发展、硬件及计算能力的提升、算法的进一步突破,都成为人工智能快速发展的推动力。
这一时期人工智能技术发展的标志性事件包括:(www.daowen.com)
●1997年IBM开发的并行计算机“深蓝”战胜了国际象棋世界冠军卡斯帕罗夫。
●2005年,斯坦福大学开发的一台机器人在一条沙漠小径上成功地自动行驶了131英里,赢得了美国国防部高级研究计划局挑战大赛头奖。
●2009年,由瑞士科学家马克拉姆(Markram)提出的模拟人类大脑的蓝脑计划声称已经成功模拟了部分鼠脑。
●2011年,IBM公司开发的Watson(沃森)系统作为使用自然语言回答问题的人工智能程序参加美国智力问答节目《危险边缘》,打败两位人类长胜冠军,赢得了100万美元的奖金。
●2016年,由谷歌旗下Deep Mind公司开发的人工智能围棋软件AlphaGo在古老的围棋比赛中以4∶1的高分击败了世界冠军李世石。
这些历史性事件都使人们逐渐意识到人工智能在智能决策方面的进步不断加快,未来可能会超越人类。
(1)算法的突破
在人工智能发展的第三次浪潮期间,人工智能算法获得众多突破。例如在神经网络算法方面,1995年,杨立昆(Yann LeCun)等人受生物视觉模型的启动改进了卷积神经网络,这个网络在小规模问题上取得了当时的最好结果;2006年,加拿大多伦多大学教授、机器学习泰斗——杰弗里·欣顿(Geoffrey Hinton)和他的学生拉斯兰(Ruslan)从理论层面论证了多隐层的人工神经网络具有优异的特征学习能力,并提出“逐层初始化”能有效克服训练上的难点,从而提出了“深度学习”的概念,打破了“反向传播算法”神经网络发展的瓶颈;2009开始,微软研究院和欣顿合作研究基于深度神经网络的语音识别,使得相对错误识别率降低25%;2014年,蒙特利尔大学伊恩·古德费洛(Ian Goodfellow)等学者提出“生成对抗网络”(Generative Adversarial Networks,GANs)的概念,引起业内人士的广泛关注,并成为学界、业界炙手可热的概念,它为创建无监督学习模型提供了强有力的算法框架。除神经网络外,其他AI算法也在并行发展:1995年,万普尼克(Vapnik)和科斯特斯(Cortes)提出支持向量机(SVM),它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中;2001年,布赖曼(Breiman)提出可以将多个决策树组合成为随机森林,它可以处理大量输入变量,学习过程快,准确度高,随着该方法的提出,支持向量机在许多之前神经网络擅长的任务中获得了更好的效果。当前,支持向量机因其简单性在文本处理、图像处理、网页搜索等领域都有着广泛应用。此外,20世纪90年代,强化学习也逐渐发展成为机器学习领域的一个重要组成部分,并在谷歌公司开发的围棋软件AlphaGo中展现了巨大威力。
(2)技术方向的快速发展
在这一时期,计算机视觉、语音识别、自然语言理解等人工智能技术方向也获得高速发展。在计算机视觉领域,20世纪90年代,由于图像处理硬件和算法的发展,该技术开始广泛应用于工业领域。进入21世纪,得益于互联网的兴起带来的海量数据,加之机器学习方法的广泛应用,计算机视觉发展迅速。机器学习可以从海量数据中总结归纳特征,并进行识别和判断。这一阶段的应用包括安防人脸识别、车牌识别等。2010年以后,借助深度学习算法,计算机视觉识别精度得到了大幅提高,使得该技术得到了爆发式增长。在语音识别领域,90年代该技术进入了基本成熟的阶段,主流的高斯混合模型GMM-HMM框架逐渐趋于稳定。而随着深度学习算法的提出,语音识别技术又获得了新的突破,基于GMM-HMM的语音识别框架被基于DNN-HMM的语音识别系统所替代,随后又出现了深层卷积神经网络和引入长短时记忆模块的循环神经网络,识别效果得到了进一步提升,大大促进了语音识别的日常应用。此外,自然语言处理技术在90年代也进入了发展繁荣期。计算机计算能力和存储量的大幅增加、大规模真实文本的积累,都将自然语言处理的研究推向了一个新的高度。除机器翻译外,网页搜索、语音交互、对话机器人等领域都应用了自然语言处理技术。进入2010年以后,基于大数据和深度学习算法,自然语言处理的能力又得到了进一步的提升,并广泛应用于智能翻译、智能客服和智能助手等领域。
(3)AlphaGo引爆的AI新热潮
2016年,由谷歌旗下Deep Mind公司开发的人工智能围棋软件AlphaGo在古老的围棋比赛中以4∶1的高分击败了世界冠军李世石,将人工智能第三次发展浪潮带向新的高潮,引爆了近年来全球人工智能发展的新热潮。一时间,“人工智能”成为全社会的热词,政府、企业、非营利机构都开始拥抱人工智能技术,AlphaGo对李世石的胜利更使得公众开始认识、了解人工智能,基于人工智能技术的应用也开始广泛落地应用。
在政府层面,人工智能被提升到前所未有的国家战略高度,全球各国纷纷出台人工智能国家战略政策,高度重视和支持人工智能技术发展,将人工智能视为科技领域的重要变革力量,力求在全球人工智能发展中占据领导者地位。在产业层面,人工智能概念的初创公司不断涌现,掀起了产业界的创业潮和投资热,全球出现大量人工智能初创公司,人工智能领域完整的产业链逐步形成,人工智能的各类应用开始渗入人们的工作和生活中。在学术界,围绕人工智能风险和伦理的讨论也达到了历史上前所未有的热度,学者开始广泛和激烈讨论人工智能的发展对人类本身将会带来什么样的影响和后果。
在应用层面,人工智能从未像现在这样在人们的生活中变得无处不在。人工智能先后历经了“应用元年”“商用元年”,以“智能语音操作系统”为核心的人机交互、以“人脸识别”为核心的智能图像识别,以“智能驾驶”为核心的机器大脑,以及其背后所连接的家居、交易和身份识别、汽车场景,逐渐成为人工智能应用普及落地的主战场。人工智能在金融、教育、医疗、汽车、数字内容、家居等领域的一系列应用逐渐进入大众视野,为用户提供个性化、精准化、智能化的服务,深刻影响着人们的生产生活。具体而言,在医疗领域,人工智能已用于医疗影像诊断、药物研发、虚拟医生助手、可穿戴设备等领域;在金融领域,人工智能在智能投顾、金融风险控制、金融预测与反欺诈、智慧理财等领域都已崭露头角;在教育领域,人工智能可用于智能评测、个性化辅导、儿童陪伴等;在智慧家居领域,人工智能已用于智能家电、智能家具、家庭管家、陪护机器人等;在数字内容领域,人工智能已用于自动化内容生产、智能推荐、不良信息内容监测、打击信息诈骗等。此外,人工智能在公共安全领域的应用也大幅增长,例如目前对于冰雹、短时强降水、雷暴大风等灾害性天气的预警方面,人工智能基于大量历史数据和超强算力,结合多种遥感观测和快速更新的数值模式预报资料,预报准确率已超过人类预报员。又如在新冠肺炎疫情防控期间,人工智能在控制疫情方面发挥了功不可没的作用。在公共场所,智能检测系统能够在高密度人流中快速、准确识别体温异常人员;人工智能疫情预测模型,能够帮助特定区域的医疗工作者和紧急响应人员分配优先的资源,分析疫情对于医院的影响,ICU的容量是否充足,呼吸机、口罩、个人防护物资的需求等;隔离病房服务机器人、送货机器人、导诊机器人、消毒清扫机器人、移动巡逻温测机器人等智能机器人能够减少交叉感染,协助抗疫。
驱动此次人工智能发展热潮的是大数据、云计算等新一代信息技术的飞速发展所提供的算力、算法和数据这三大要素。在算力层面,当前计算机和芯片等硬件水平的提升加上计算机网络技术发展推动的云计算架构的弹性部署等,为人工智能训练更为复杂的模型提供了前所未有的计算能力;在算法层面,以深度学习为代表的基于大量数据分析和训练的理论突破后融合应用场景取得了跨越式发展;在数据层面,近年来数据呈现爆发式的增长,现阶段不仅数据所承载的信息量增大,信息形态也越发多元,从文本、声音、图像等原始数据发展到行为数据、环境数据等,数据数量和质量综合影响人工智能算法的“人”性和思考水平,为人工智能普遍应用和能力提高提供了可能。加之当前全球已基本实现有线、无线等方式繁密而充分的网络连接,人与人、人与机器、机器与机器的连接更为普遍,信息和数据以空前的方式和速度流动、汇聚、共享,这种连接与融合趋势不断重塑人与机器的关系,也为人工智能技术提供了丰富的应用场景。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。