机器学习

机器学习常见面试问题汇总

2019-03-22  本文已影响75人  大王叫我来巡老和山

距离上次挖坑已经一个月了,,,好好好,我写还不行嘛,Machine Learning 走起!


目录:
机器学习常见面试问题汇总
问题汇总(1):逻辑回归
问题汇总(2):支持向量机
问题汇总(3):树模型
问题汇总(4):聚类
问题汇总(5):神经网络
问题汇总(6):EM算法
问题汇总(7):朴素贝叶斯


先来几个引用:

这些面试问题你一定要知道
各种面试问题:数据结构、算法、概率题、智商题、大数据题......
milter的简书(里面机器学习部分)

各种机器学习算法的应用场景分别是什么(比如朴素贝叶斯、决策树、K 近邻、SVM、逻辑回归最大熵模型)?


L1正则和L2正则的异同

范数正则化L0、L1、L2-岭回归&Lasso回归

从中引发的小问题:
实现参数的稀疏有什么好处?
1.参数的稀疏,在一定程度上实现了特征的选择。
2.参数稀疏,计算速度会快。

如何解决 L1 求导困难问题?

Lasso回归算法

1.找一个近似公式取代|w|。
2.坐标轴下降法。
3.最小角回归法。


梯度消失和梯度爆炸

(这个问题应该属于神经网络或者说深度学习了把?等我回头再挖一坑,再开一篇,然后把这个内容搬过去)

对于梯度消失和梯度爆炸的理解
梯度消失、爆炸

梯度消失:这玩意就是链式求导,然后连乘导致的,尤其是激活函数用sigmoid的时候,毕竟求导完毕最大也只有1/4,当然tanh也好不到哪里去,求导最大值也就是1。RNN也很容易出现这种问题,不过LSTM可以帮助避免(RNN在做乘法,LSTM在做加法)。
sigmoid公式及其导数如下:
sig(z) = \frac {1} {1 + e^{-z}} sig(z)' =sig(z)(1 - sig(z))
tanh公式及其导数如下:
tanhx = \frac {e^x - e^{-x}} {e^x + e^{-x}} tanhx' = 1 - tanh^2x

梯度爆炸:连乘也会导致梯度爆炸,不过 Boom!的概率小一点。但是当求导时遇到“悬崖”,也就是梯度变化很大时,也会引起梯度爆炸。

解决办法


防止过拟合的方法

机器学习常见四种防止过拟合方法
多任务学习


防止欠拟合方法:


上一篇下一篇

猜你喜欢

热点阅读