理论教育 人工智能:历史、发展及应用

人工智能:历史、发展及应用

时间:2023-10-02 理论教育 版权反馈
【摘要】:1997年IBM公司的深蓝击败国际象棋冠军卡斯帕罗夫和2016年Google公司的AlphaGo击败世界围棋冠军李世石是人工智能历史上获得公众关注的两次标志性事件。在人工智能发展过程中,上述多个方法各自都出现过自己的发展巅峰和低谷时期。目前的研究大多集中在弱人工智能这部分。近年来随着计算智能和感知智能的关键技术取得较大突破,弱人工智能的应用条件基本成熟。

人工智能:历史、发展及应用

2020年2月,国家发展和改革委员会等11部委联合发布《智能汽车创新发展战略》,其中提到,智能汽车是指通过搭载先进传感器等装置,运用人工智能等新技术,具有自动驾驶功能,逐步成为智能移动空间和应用终端的新一代汽车。可以看到人工智能在其中的作用,下面对人工智能的发展进行简要介绍。

1.人工智能、机器学习与深度学习之间的关系

“人工智能”(Artificial Intelligence,AI)这一词语由John McCarthy于1955年提出,在1956年的达特茅斯会议上其作为一门学科得到认可。当时的理念是,人类智慧可以通过精确地表示和描述来让机器模拟。而人工智能的通常含义是指机器能够像人类一样思考。人工智能的目标包括推理、知识、规划、学习、自然语言处理、感知等能力,涉及计算机、数学、心理学语言学哲学、神经科学等众多学科。自提出以来,人工智能研究经历过数次兴衰,近年来人工智能的兴起是由于计算能力的提高、海量数据的获取和人工智能理论上的进展。1997年IBM公司的深蓝击败国际象棋冠军卡斯帕罗夫和2016年Google公司的AlphaGo击败世界围棋冠军李世石是人工智能历史上获得公众关注的两次标志性事件。

人类的智能主要包括归纳总结和逻辑演绎两大类。人类的视听觉、身体感知处理等都是下意识的,属于归纳总结智能。而数学推导、逻辑推理等都是基于公理系统的符号演绎方法。由于在发展过程中,对于智能的理解不同,渐渐形成了几个经典学派。每个学派从不同的角度看待问题,提出解决方案。比如最为主要的两个学派——符号学派和联结学派,前者从哲学、逻辑学心理学出发,将学习视为逆向演绎,使用预先存在的知识来解决问题,大多数专家系统使用符号学派的方法;后者专注于通过神经元之间的连接来推导表示知识,该学派聚焦于物理学和神经科学,并相信大脑的逆向工程,用反向传播算法来训练人工神经网络以获取结果。其他学派,如进化学派在遗传学和进化生物学的基础上得出结论,贝叶斯学派注重统计学和概率推理,类推学派更多地关注心理学和数学优化来推断相似性判断。

虽然上述学派各自都取得了很大的成就,但是其各自采用的研究方法都遇到了诸多困难,而且这些学派对于人工智能的研究思路和方法难以形成一个统一的框架。基于对于“机器智能是由什么决定”这个问题的回答,人工智能领域60多年的发展形成了四大研究方法:结构模拟、功能模拟、行为模拟和机制模拟。在人工智能发展过程中,上述多个方法各自都出现过自己的发展巅峰和低谷时期。目前的人工智能热潮则源于结构模拟方面的突破,即由于解决了深度神经网络的训练问题,加上大数据的高性能计算平台(云计算、GPU等)变成现实,深度神经网络的表达能力得到充分发挥,对人工智能的发展起到了推波助澜的作用。

通常将人工智能分为弱人工智能和强人工智能,前者让机器具备观察和感知的能力,可以做到一定程度的理解和推理;而强人工智能让机器获得自适应能力,解决一些之前没有遇到过的问题。目前的研究大多集中在弱人工智能这部分。近年来随着计算智能和感知智能的关键技术取得较大突破,弱人工智能的应用条件基本成熟。弱人工智能的“智能”主要归功于一种实现人工智能的方法——机器学习。机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。机器学习直接来源于早期的人工智能领域,传统的算法包括决策树、聚类、贝叶斯分类、支持向量机、EM、Adaboost等。

传统的机器学习算法在指纹识别、基于Haar的人脸检测、基于HoG特征的物体检测等领域的应用基本达到了商业化的要求或者特定场景的商业化水平,但每前进一步都异常艰难,直到深度学习算法的出现。深度学习并不是一种独立的学习方法,其本身也会用到有监督和无监督的学习方法来训练深度神经网络。但由于近几年该领域发展迅猛,一些特有的学习手段相继被提出(如残差网络),因此越来越多的人将其单独看作一种学习的方法。

最初的深度学习是利用深度神经网络来解决特征表达的一种学习过程。深度神经网络可大致理解为包含多个隐含层的神经网络结构。为了提高深度神经网络的训练效果,人们对神经元的连接方法和激活函数等方面做出相应的调整。

综上所述,机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术。(www.daowen.com)

2.机器学习

一般根据处理的数据是否存在人为标注,将机器学习分为监督学习和无监督学习。监督学习用有标签的数据作为最终学习目标,通常学习效果好,但获取有标签数据的代价是昂贵的。无监督学习相当于自学习或自助式学习,便于利用更多的数据,同时可能会发现数据中存在的更多模式的先验知识(有时会超过手工标注的模式信息),但学习效率较低。二者的共性是通过建立数学模型为最优化问题进行求解。

监督学习的数据集包括初始训练数据和人为标注目标,希望根据标注特征从训练集数据中学习到对象划分的规则,并应用此规则在测试集数据中预测结果,输出有标记的学习方式。因此,监督学习的根本目标是训练机器学习的泛化能力。监督学习的典型算法有逻辑回归、多层感知机、卷积神经网络等;典型应用有回归分析、任务分类等。

无监督学习,用于处理未被分类标记的样本集数据并且事先不需要进行训练,希望通过学习寻求数据间的内在模式和统计规律,从而获得样本数据的结构特征。因此,无监督学习的根本目标是在学习过程中根据相似性原理进行区分。无监督学习更近似于人类的学习方式,典型算法有自动编码器、受限玻耳兹曼机、深度置信网络等;典型应用有聚类和异常检测等。

3.深度学习发展展望

虽然深度学习在应用中取得了很多成绩,但是仍存在很多局限。深度学习的研究多是基于试验训练进行的,但是对其内部原理、学习本质研究很少。现在的研究多是在网络架构、参数选择等方面,而且深度学习得到的结果往往是局部最优解,有可能不是全局最优解,还有进一步提升的空间,也需要更加完备深入的理论支撑其发展。目前主流应用还是以监督学习为主,但在实际生活中,无标签未知的数据占主体,所以更应该应用可以发现事物内在关系的无监督学习。目前无监督学习技术备受关注,无监督表达学习技术在自然语言处理领域进展神速;无监督图嵌入表达技术在图学习领域取得了不俗的成果;自监督学习技术在视觉领域近期也有较大的突破。但无监督学习在很多领域进展有限,同时也面临着鲁棒性及安全性质疑。

深度学习是人工智能发展的巨大推力,但是普通的深度学习更侧重于处理数据,缺乏一定的记忆能力和逻辑推理能力。在面对复杂现实任务时,预测和存储包含信息序列的内容是必要的,这也成为深度学习的一个重要研究方向,由此衍生出了RNN及LSTM、GRU模型、注意力模型等。此外,深度学习在训练网络中需要大量有标记的数据去学习输入和输出的映射关系,这样获得的模型往往无法将其泛化到与训练时不同条件的数据集上。而现实应用中,人们遇到的数据集常常会包含很多新场景,许多数据是模型在训练过程中没出现过的,因此学习得到的模型可能无法很好地预测结果。将学习得到的知识迁移到新的条件和环境的能力通常被称为迁移学习,这也是深度学习的一个重要研究方向。如果将迁移学习做到极限,仅仅从少数几个甚至零个样本中学习(如一次和零次学习),将能解决更多实际问题。执行一次和零次学习的模型是机器学习中最难的问题之一,可这对人类而言却不是那么困难。

深度学习对未来社会发展仍将具有重要意义,需要不断深入研究,多方向多角度更全面地开发深度学习的潜在价值。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈