AI学习资源Python语言与信息数据获取和机器学习

资源 | 多伦多大学“神经网络与机器学习导论”2017年课程表

2017-07-03  本文已影响44人  AI科技大本营

翻译 | AI科技大本营(rgznai100)

Hinton大神独步天下的人工智能课程——多伦多大学“神经网络与机器学习导论”,2017年课程表上线了。

你可能没学过这门课,但了解机器学习的你一定有听过这门课的大名。今年冬季学期,这门课将交由多伦多大学助理教授Roger Grosse主讲。

如果你还不知道这位教授,请一定要了解一下他在Google Brain实习的本科学生Aidan Gomez,AI100对此做过专门报道:牛!他本科没毕业就进入Google Brain,还发表了最火的深度学习顶级论文... 你呢?

闲话少说,我们直接来看 CSC321 "Intro to Neural Networks and Machine Learning" 的课程表:

http://www.cs.toronto.edu/~rgrosse/courses/csc321_2017/

第1课:导论

什么是机器学习,什么是神经网络,它们能够做什么?

监督式学习、非监督式学习、以及强化学习呢?

本课程的组织安排。

第2课:线性回归

线性回归,一种监督式学习模型,通过它你可以预测得到一个目标值。

以最优化问题的形式呈现它,并且通过直接求解方程或者梯度下降算法进行求解。

向量。特征映射和多项式回归。泛化:过拟合、欠拟合、验证。

第3课:线性分类

二元线性分类。线性分类器可视化。感知器算法。线性分类器的局限性。

第4课:分类器学习

二元分类器损失函数比较。

交叉熵损失、Logistic激活函数、Logistic回归。

Hinge 损失。多向分类。凸损失函数。梯度检验。

第5课:多层感知机

多层感知机。激活函数比较。

把深度神经网络视为函数和特征学习。

线性神经网络的局限性和非线性网络的普适性。

第6课:反向传播算法

反向传播算法,一种用于计算梯度的方式,在整个课程中我们都会用到它。

第7课:优化

如何使用反向传播算法得到的梯度。

损失函数特征:局部最优解,鞍点,平顶,低谷。

随机梯度下降算法和momentum算法。

第8课:自动微分法

由助理教授David Duvenaud授课

第9课:泛化

偏差/方差分解,数据增强,限制模型复杂度,提起结束,权重衰减,集成算法,随机正则化,超参数优化。

第10课:分布式表征

语言模型,n-gram模型,神经网络语言模型(一种分布式表征),skip-grams (另一种分布式表征)

第11课:卷积神经网络

卷积操作。卷积层和池化层。等变异数和不变性。

卷积神经网络的反向传播算法规则。

第12课:图像分类

卷积神经网络架构在手写数字和物体分类方面的应用。

卷积神经网络大小的测量。

第13课:玩转卷积网络

卷积神经网络可视化:导向型反向传播算法,输入数据梯度下降。

Deep Dream。神经网络风格迁移。

第14课:递归神经网络

递归神经网络。时间轴上的反向传播。

递归神经网络在语言模型和机器翻译中的应用。

第15课:梯度爆炸和消失

为什么递归神经网络梯度会爆炸或者消失,从两个角度进行分析:第一,反向传播机制;第二,递归神经网络计算的函数。

对应的措施:梯度裁剪、输入反转、LSTM

第16课:ResNet与Attention

深度残差网络。

基于Attention模型在机器翻译和字幕生成方面的应用。

神经网络图灵机。

第17课:学习概率模型

最大似然估计。贝叶斯参数估计基础和最大化后验估计。

第18课:混合模型

K-means。混合模型:后验推断和参数学习

第19课:玻尔兹曼机

玻尔兹曼机:定义;边缘和条件概率;参数学习。受限玻尔兹曼机。

第20课:自编码机

主成分分析;自编码机;逐层训练;将自编码机应用于文件和图像的获取

第21课:贝叶斯超参数优化

贝叶斯线性回归;贝叶斯优化

第22课:对抗学习

对抗学习案例;生成式对抗网络(GANs)

第23课:围棋

“AlphaGo人机对战”

怎么样,看到最后一节AlphaGo有没有眼前一亮的感觉?这就是紧跟技术发展的国外课程,跟国内不一样的地方。

当然,如果你还是怀念Hinton大神的亲自讲授,你总是可以找到他的Coursera页面:https://www.coursera.org/learn/neural-networks

上一篇下一篇

猜你喜欢

热点阅读