当前的大多数学习算法是在25 年前开发的,为什么它们需要那么长的时间才能对现实世界产生影响呢?20 世纪80 年代的研究人员使用的计算机和标记数据,只能证明玩具问题的原理。尽管取得了一些似乎颇有前景的成果,但我们并不知道网络学习及其性能如何随着单元和连接数量的增加而增强,以适应现实世界问题的复杂性。人工智能中的大多数算法缩放性很差,从未跳出解决玩具级别问题的范畴。我们现在知道,神经网络学习的缩放性很好,随着网络规模和层数的不断增加,其性能也在不断增强。特别是反向传播技术,它的缩放性非常好。
我们应该对此感到惊讶吗?大脑皮层是哺乳动物的一项发明,在灵长类动物,尤其是人类中得到了高度发展。随着它的扩展,更多的功能慢慢出现,并且更多层次被添加到了关联区域,以实现更高阶的表征。很少有复杂系统可以实现如此高级的缩放。互联网是为数不多的已经被扩大了100 万倍的工程系统之一。一旦通信数据包协议建立起来,互联网就会开始进化,正如DNA中的遗传密码使细胞演化成为可能一样。
使用相同的一组数据训练许多深度学习网络,会导致生成大量不同的网络,它们都具有大致相同的平均性能水平。我们想知道的是,所有这些同等优秀的网络有哪些共同之处,而对单个网络进行分析并不能揭示这一点。理解深度学习原理的另一种方法是进一步探索学习算法的空间;我们只在所有学习算法的空间中对几个位置进行了抽样尝试。从更广泛的探索中可能会出现一种学习计算理论,该理论与其他科学领域的理论一样深奥,27可能为从自然界中发现的学习算法提供更多的解释。
蒙特利尔大学的约书亚·本吉奥28(见图9-8),和杨立昆一起,接替杰弗里·辛顿,成为CIFAR 神经计算和NCAP 项目的主任,该项目在通过十年评估后更名为“机器学习和大脑学习”项目(Learning in Machines and Brains)。约书亚率领蒙特利尔大学的一个团队,致力于应用深度学习来处理自然语言,这将成为“机器学习和大脑学习”项目新的研究重点。在十多年的会议中,这个由20 多名教师和研究员组成的小组开启了深度学习的研究。过去5 年来,深度学习在过去难以解决的许多问题上取得了实质性进展,这些进展归功于小组成员的努力,他们当然只是一个更庞大社区中的一小部分人(将在第11章探讨)。
(www.daowen.com)
图9-8 约书亚·本吉奥是CIFAR“机器学习和大脑学习”项目的联合主任。这位在法国出生的加拿大籍计算机科学家,一直是应用深度学习处理自然语言问题这个领域的领导者。杰弗里·辛顿、杨立昆和约书亚·本吉奥所取得的进展,为深度学习的成功奠定了基础。图片来源:约书亚·本吉奥。
尽管深度学习网络的能力已经在许多应用中得到了证明,但如果单靠自身,它们在现实世界中永远都无法存活下来。29它们受到了研究者的青睐,后者为其提供数据,调整超参数,例如学习速度、层数和每层中的单元数量,以改善收敛效果,还为其提供了大量计算资源。另一方面,如果没有大脑和身体的其他部分提供支持和自主权,大脑皮层也无法在现实世界中存活。在一个不确定的世界中,这种支持和自主权是一个比模式识别更难解决的问题。第10章将会介绍一种古老的学习算法,它通过激励我们寻求对自身有利的经验来帮助我们在自然界中生存。
【注释】
[1]美国喜剧演员,有一句非常著名的口头禅:“我觉得自己没有受到尊重。”——译者注
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。