文章目錄

此书尚未出版,该笔记仅供学习参考,原文见http://www.iro.umontreal.ca/~bengioy/dlbook/

[P2]早期的AI是以IBM为的深蓝代表一类的简单的AI。

人的知识与经验是主观和直觉的,因此难以用一种正式的方法表达出来。电脑却恰恰需要各种形式的知识去做决策。

几个AI项目曾经探索用正式语言的硬编码去描述知识。计算机可以运用逻辑推断法则通过这些正式语言推断陈述。但这些AI项目的均未成功,[P3]其中最有名的就是Cyc(人们用十分复杂的语言来准确的描述世界)。

hard-code所面临的困难说明AI系统需要有能力从原始数据中去获得他们自己的知识。这种能力就称为ML,ML的引入让计算机应付真实世界的问题并做出近乎于主观的决策。

LR是一种简单的ML算法,曾被来预测是否推荐做剖腹产另一种叫做朴素贝叶斯的算法可以分辨垃圾邮件。

我们称执行学习过程的代理为Learning Machine或者Learner,它将训练数据作为输入,产生函数。

这些简单的ML算法的性能,非常依赖于所给数据的表达。Represent中的每一部分信息就是feature。LR学习每个feature所对应的不同的产生效果。然而LR无法学习出哪些特征有用,哪些特征无用,比如说若输入是像素点,单个像素点对后面的结果无关轻重。

这个对表达的依赖是伴随计算机科学的普遍现象,表达的选择对ML算法的选择有极大的影响。

[P4]许多AI问题通过设计恰当的特征的到解决,然后把这些特征给一个简单的ML算法。[还有些问题不能通过特征解决?]

然而对于有些问题,什么特征应该别提取显得非常困难。比如车的轮子。

一种解决方案是,让ML不光学习Representation到output的映射,还学习表达本身。这种方法称为Representation Learning,RL的效果往往比hand-designed representation要好。它们同样允许AI系统在最小的人工干预下快速适应新的问题。

[P5]当设计特征的时候我们的目标往往是分离解释观测数据的变量因素。这里的factor仅是影响源,通常不包含mutiplication。这样的factor通常不是通过直接观察得到的,而是存在于人的思想中用来解释或推断观测数据的原因。这些factor可以被理解为帮助我们理解数据中大量变量的概念或抽象。

真实世界中的AI应用的一个主要困难是许多factors影响每一个我们所观测的数据。许多应用希望我们从大量的factor中解脱出来并且摈弃我们不在乎的factor。

当然,从原始数据中提取high-level抽象特征十分困难(不少需要人类级别的理解)。RL这一看无法解决这个问题。

DL解决这个RL中的核心问题通过引入更简单的表达。DL允许电脑建立由简单概念产生的复杂概念。

DL的另一个远景是他允许计算机学习一个多部的计算机程序(没看明白??)

Depth在这里不是数学严格定义上的意思。在DL中它没有正式的定义。有些方法大概表达学习的次数多,另一些方法中指计算的概念深。因为简单概念可以理解为复杂概念。

[P7]简而言之,DL是一种AI方法,ML的一种类型。DL is a particular kind of ML that achieves great power and flexibility by learning to represent the world as a nested hierarchy of concepts with each concept defined in relation to simpler concepts.

[P9]DL在过去5年中,对工业界和学术界产生了极大的影响,DL涉及到Learning multiple levels of representation。

文章目錄