AI书籍

《AI 3.0》读书笔记 第一部分 若想对未来下注,先要厘清人工

2024-03-03  本文已影响0人  银河星尘

《AI 3.0》读书笔记
《AI 3.0》读书笔记 序1
《AI 3.0》读书笔记 序2
《AI 3.0》读书笔记 序3
《AI 3.0》读书笔记 译者序
《AI 3.0》读书笔记 第一部分 若想对未来下注,先要厘清人工智能为何仍然无法超越人类智能01

02从神经网络到机器学习,谁都不是最后的解药

多层神经网络被明斯基和佩珀特所摒弃的、认为很有可能“不育的”带有扩展层的感知机,事实证明反而成了现代人工智能的基础。

多层神经网络如何工作

多层神经网络,识别编码中的简单特征

网络是以多种方式相互连接的一组元素的集合。
社交网络的元素是人,
计算机网络中的元素自然是计算机。
神经网络中,这些元素是模拟神经元,类似于在前一章中描述的感知机。

识别手写数字的简单的多层神经网络的草图


简单的多层神经网络的草图

网络由两列(层)类似感知机的模拟神经元(图中圆圈)组成。(为了简单起见,使用“单元”而非“模拟神经元”这个术语来描述网络中的元素。)

原则上,多层神经网络能够学会使用其隐藏单元来识别更为抽象的特征。

通常情况下我们很难提前知道,对于一个给定的任务,一个神经网络到底需要多少层隐藏单元,以及一个隐藏层中应该包含多少个隐藏单元才会表现更好,大多数神经网络研究人员采用试错的方式来寻找最佳设置。

无论有多少输入与输出,反向传播学习都行得通

在《感知机》一书中,明斯基和佩珀特对于是否能够设计出一种成功的、用来学习多层神经网络权重设置的算法持怀疑态度,符号人工智能阵营的其他人也持此态度。

但神经网络研究领域的一小部分核心群体仍然坚持了下来,特别是在罗森布拉特的认知心理学领域。到了70年代末和80年代初,这些研究小组中的一些人开发了一种名为“反向传播”(back-propagation)的通用学习算法来对网络进行训练,有力地驳斥了明斯基和佩珀特对于多层神经网络“不育性”的猜测。

联结主义:智能的关键在于构建一个合适的计算结构

20世纪80年代,最引人注目的神经网络研究小组是加州大学圣迭戈分校的一个团队,由心理学家大卫·鲁梅尔哈特(David Rumelhart)和詹姆斯·麦克莱兰德(James McClelland)带领。

到20世纪80年代中期,依赖人类创建并反映特定领域专家知识规则的符号人工智能方法——专家系统,越来越暴露出自身的脆弱性:容易出错,且在面对新情况时往往无法进行一般化或适应性的处理。
在分析这些系统的局限性时,研究人员发现,编写规则的人类专家实际上或多或少依赖于潜意识中的知识(常识)以便明智地行动。这种常识通常难以通过程序化的规则或逻辑推理来获取,而这种常识的缺乏严重限制了符号人工智能方法的广泛应用。

根据联结主义的支持者的观点,智能的关键在于构建一个合适的计算结构以及系统来获得从数据或现实世界的行为中进行学习的能力,这是受到了大脑的启发。鲁梅尔哈特、麦克莱兰德及其团队构建了软件形式的联结主义网络来作为人类学习、感知和语言发展的科学模型。虽然这些网络并没有表现出任何接近人类水平智能的特点,但《并行分布式处理》和其他文献描述的多种多样的网络就像人工智能工艺品一样有趣,并引起了包括资助机构在内的多方面的注意。

1988年,提供了绝大部分人工智能研究资助的美国国防部高级研究计划局(DARPA)的一位高级官员宣称:“我相信我们即将着手研究的这项技术(即神经网络)比原子弹更重要。”突然之间,神经网络又流行起来了。

亚符号系统的本质:不擅长逻辑,擅长接飞盘

完全可以用符号系统来完成类似于语言描述和逻辑推理的高级任务,而用亚符号系统来完成诸如识别人脸和声音这样的低级感知任务。尽管已经有一些融合符号和亚符号系统来构建混合系统的尝试,但至今还未取得任何显著的成功。

机器学习,下一个智能大变革的舞台已经就绪

在统计学和概率论的启发下,人工智能领域的研究者开发了一系列能够使计算机从数据中进行学习的方法,并且为了与符号人工智能区分开来,机器学习成了人工智能领域一个独立的分支学科。

考虑到当时可用的数据量和计算机的算力非常有限,用训练神经网络及其类似方法来解决现实世界的问题可能会极其缓慢,并且往往效果不好;但是,更多的数据和更强的算力很快就会来临,互联网数据的爆炸式增长和计算机芯片技术的飞速发展将会确保这点。下一个人工智能大变革的舞台已准备就绪。

机器学习时代,“大力出奇迹”将更加通行,是一个算力为王的时代。

上一篇 下一篇

猜你喜欢

热点阅读