(1)万能机械手——机器人的手
机器人要模仿动物的一部分行为特征,自然应该具有动物脑的一部分功能。机器人的大脑就是我们所熟悉的电脑,但是光有电脑发号施令还不行,最基本的还得给机器人装上各种感觉器官和执行器官。
机器手
机器人必须有“手”和“脚”,这样它才能根据电脑发出的“命令”动作。“手”和“脚”不仅是一个执行命令的机构,它还应该具有识别的功能,这就是我们通常所说的“触觉”。由于动物和人的听觉器官和视觉器官并不能感受所有的自然信息,所以触觉器官就得以存在和发展。
机器人灵巧的手
动物对物体的软、硬、冷、热等的感觉靠的就是触觉器官。人在黑暗中看不清物体的时候,往往要用手去摸一下,才能弄清楚。大脑要控制手脚去完成指定的任务,也需要由手和脚的触觉所获得的信息反馈到大脑里以调节动作,使动作适当。因此,我们给机器人装上的手应该是一双会“摸”的、有识别能力的灵巧的“手”。
机器人的“手”一般由方形的手掌和节状的手指组成。为了使它具有触觉,在手掌和手指上都装有带弹性触点的触敏元件(如灵敏的弹簧测力计)。如果要感知冷暖,还可以装上热敏元件。当碰到物体时,触敏元件发出接触信号,否则就不发出信号。在各指节的连接轴上装有精巧的电位器(一种利用转动来改变电路的电阻因而输出电流信号的元件),它能把手指的弯曲角度转换成“外形弯曲信息”。把外形弯曲信息和各指节产生的“接触信息”一起送入电子计算机,通过计算就能迅速判断机械手所抓物体的形状和大小。
现在,机器人的手已经具有了灵巧的指、腕、肘和肩胛关节,能灵活自如的伸缩摆动,手腕也会转动弯曲。通过手指上的传感器还能感觉出抓握的东西的重量,可以说已经具备了人手的许多功能。
在实际情况中有许多时候并不一定需要这样复杂的多节人工指,而只需要能从各种不同的角度触及并搬动物体的钳形指。
1966年,美国海军就是用装有钳形人工指的机器人“科夫”把因飞机失事掉入西班牙近海的一颗氢弹从深海里捞了上来。
月球探测器
1967年,美国飞船“探测者三号”就把一台遥控操作的机器人送上月球。它在地球上人的控制下,可以在两平方米左右的范围里挖掘月球表面40厘米深处的土壤样品,并且放在规定的位置,还能对样品进行初步分析,如确定土壤的硬度、重量等,它为“阿波罗”载人飞船登月当了开路先锋。
知识小百科
你知道“阿波罗”载人飞船登月工程吗?
阿波罗载人登月工程是美国国家航空和航天局在20世纪60~70年代组织实施的载人登月工程,或称“阿波罗计划”。
“阿波罗”载人飞船登月照片
阿波罗计划采用月球轨道交会法,用强大的土星五型运载火箭把50吨重的航天器送入月球轨道。航天器本身装有较小的火箭发动机,当它接近月球时,能使航天器减速进入绕月轨道。而且,航天器的一部分——装有火箭发动机的登月舱能脱离航天器,载着宇航员登上月球,并返回绕月轨道与阿波罗航天器结合。
“阿波罗”载人飞船登月工程开始于1961年5月,至1972年12月第6次登月成功结束,历时约11年,耗资255亿美元。在工程高峰时期,参加工程的有2万家企业、200多所大学和80多个科研机构,总人数超过30万人。
(2)智慧视窗——机器人的眼睛
人的眼睛是感觉之窗,人有80%以上的信息是靠视觉获取,能否造出“人工眼”让机器也能像人那样识文断字、看东西,这是智能自动化的重要课题,也就是机器人的识别系统。
关于机器识别的理论、方法和技术,称为模式识别。所谓模式是指被判别的事件或过程,它可以是物理实体,如文字、图片等,也可以是抽象的虚体,如气候等。
机器人的眼睛
机器识别系统与人的视觉系统类似,由信息获取、信息处理与特征抽取、判决分类等部分组成。
1.机器认字
日常生活中,信件投入邮筒需经过邮局工人分拣后才能发往各地。一人一天只能分拣两千到三千封信,现在采用机器分拣,可以提高效率10多倍。机器认字的原理与人认字的过程大体相似。
机器人先对输入的邮政编码进行分析,并抽取特征。若输入的是个“8”字,其特征是底下有个圈,左上部有一直道或带拐弯。
其次是对比,即把这些特征与机器里原先规定的0到9这十个符号的特征进行比较,与哪个数字的特征最相似,就是哪个数字。这一类型的识别实质上叫分类,在模式识别理论中,这种方法叫做统计识别法。
机器人认字的研究成果除了用于邮政系统外,还可用于手写程序直接输入、政府办公自动化、银行审计、统计、自动排版等方面。
2.机器识图
现有的机床加工零件完全靠操作者看图纸来完成,能否让机器人来识别图纸呢?这就是机器识图问题。(www.daowen.com)
机器识图的方法除了上述的统计方法外,还有语言法。它是利用人认识过程中视觉和语言的联系而建立的。把图像分解成一些直线、斜线、折线、点、弧等基本元素,研究它们是按照怎样的规则构成图像的,即从结构入手,检查待识别图像是属于哪一类“句型”,是否符合事先规定的句法。按这个原则,若句法正确就能识别出来。
机器识图具有广泛的应用领域,在现代的工业、农业、国防、科学实验和医疗中,涉及大量的图像处理与识别问题。
3.机器识别物体
机器识别物体即三维识别系统。一般是以电视摄像机作为信息输入系统。根据人识别景物主要靠明暗信息、颜色信息、距离信息等原理,机器识别物体的系统也是输入这三种信息,只是其方法有所不同罢了。由于电视摄像机所拍摄的方向不同,可得各种图形,如抽取出棱数、顶点数、平行线组数等立方体的共同特征,参照事先存储在计算机中的物体特征表,便可以识别立方体了。
目前,机器可以识别简单形状的物体,对于曲面物体、电子部件等复杂形状的物体识别及室外景物识别等研究工作,也有所进展。物体识别主要用于工业产品外观检查、工件的分选和装配等方面。
(3)人造嗅觉——机器人的鼻子
机器人电子鼻
人能够嗅出物质的气味,分辨出周围物质的化学成分,这全是由上鼻道的黏膜部分实现的。在人体鼻子的这个区域,在只有5平方厘米的面积上却分布有500万个嗅觉细胞。嗅觉细胞受到物质的刺激,产生神经脉冲传送到大脑,就产生了嗅觉。人的鼻子实际上就是一部十分精密的气体分析仪。人的鼻子是相当灵敏的,就算在一升水中放进二百五十分之一的乙硫醇(就是一种特殊的具有异常臭味的化学物质),人的鼻子也能够闻出来。
机器人的头部
机器人的鼻子也就是用气体自动分析仪做成的。我国已经研制成功了一种嗅敏仪,这种气体分析仪不仅能嗅出丙酮、氯仿等四十多种气体,还能够嗅出人闻不出来但是却可以导致人死亡的一氧化碳(也就是我们通常所用的煤气)。这种嗅敏仪有一个由二氧化锡和氯化钯等物质烧结而成的探头(相当于鼻黏膜)。当它遇到某些种类气体的时候,它的电阻就发生变化,这样就可以通过电子线路做出相应的显示,用光或者用声音报警。同时,用这种嗅敏仪还可以查出埋在地下的管道漏气的位置。
现在利用各种原理制成的气体自动分析仪已经有很多种类,广泛应用于检测毒气、分析宇宙飞船座舱里的气体成分、监察环境等方面。
这些气体分析仪的原理和显示都和电现象有关,所以人们把它叫做电子鼻。把电子鼻和电子计算机组合起来,就可以做成机器人的嗅觉系统了。
(4)高人一等——机器人的耳朵
人的耳朵是仅次于眼睛的感觉器官,声波叩击耳膜,引起听觉神经的冲动,冲动传给大脑的听觉区,因而引起人的听觉。机器人的耳朵通常是用“微音器”或录音机来做的。被送到太空去的遥控机器人,它的耳朵本身就是一架无线电接收机。
人的耳朵是十分灵敏的,我们能听到的最微弱的声音,它对耳膜的压强是每平方厘米只有一百亿分之几千克。这个压强的大小只是大气压强的一百亿分之几。可是用一种叫做钛酸钡的压电材料做成的“耳朵”比人的耳朵更为灵敏,即使是火柴棍那样细小的东西反射回来的声波也能被它“听”得清清楚楚。如果用这样的耳朵来监听粮库,那么在2~3千克的粮食里的一条小虫爬动的声音也能被它准确地“听”出来。
婴儿的耳朵
用压电材料做成的“耳朵”之所以能够听到声音,是因为压电材料在受到拉力或者压力作用的时候能产生电压,这种电压能使电路发生变化。这种特性就叫做压电效应。当它在声波的作用下不断被拉伸或压缩的时候,就产生了随声音信号变化而变化的电流,这种电流经过放大器放大后送入电子计算机(相当于人大脑的听区)进行处理,机器人就能听到声音了。
机器人
但是能听到声音只是做到了第一步,更重要的是要能识别不同的声音。目前人们已经研制成功了能识别连续话音的装置,它能够以99%的比率,识别不是特别指定的人所发出的声音,这项技术就使得电子计算机能开始“听话”了。这将大大降低对电子计算机操作人员的特殊要求。操作人员可以用嘴直接向电子计算机发布指令,改变了人在操作机器的时候手和眼睛忙个不停。而与此同时嘴巴和耳朵却是闲着的状况。
一个人可以用声音同时控制四面八方的机器,还可以对楼上楼下的机器同时发出指令,而且并不需要照明,这样就很适合在夜间或地下工作。这项技术也大大加速了电话的自动回答、车票的预定以及资料查找等服务工作的自动化实现的进程。
现在人们还在研究使机器人能通过声音来鉴别人的心理状态,人们希望未来的机器人不光能够听懂人说的话,还能够理解人的喜悦、愤怒、惊讶、犹豫等情绪,这些都会给机器人的应用带来极大的发展空间。
知识小百科
为什么机器人能听懂人讲的话?
机器人之所以能够听懂人讲话,是因为人们为它安装了像人那样的“听觉器官”。虽然机器人的“听觉”没有人的耳朵那样精密和复杂,但是两者的听觉原理基本上是相同的。
机器人的“耳朵”实际上是靠电脑系统来控制的,并且与机器人的“大脑”——即核心电脑程序相连接,在人们事先编排好的程序指令的指引下进行工作。但是机器人的“听觉”能力并不是万能的,它只是能够根据人们的程序设计进行相应的工作,并不像人脑那样有自己分析事物的能力。
日本服务机器人
仿人机器人
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。