[持续更新]算法岗面经整理
为了方便复习面经,根据笔者的复习进度,持续更新汇总一些觉得比较有价值的文章链接。希望能够一起学习~ ※代表被问过
机器学习
-
kmeans原理、k值选择、初始点选择 ※
(1)初始点选择- 选择批次距离尽可能远的K个点
首先随机选择一个点作为第一个初始类簇中心点,然后选择距离该点最远的那个点作为第二个初始类簇中心点,然后再选择距离前两个点的最近距离最大的点作为第三个初始类簇的中心点,以此类推,直至选出K个初始类簇中心点。 - 选用层次聚类或者Canopy算法进行初始聚类,然后利用这些类簇的中心点作为KMeans算法初始类簇中心点
(2)K值选择
- 按实际情况选择、手肘法、间隔统计量、轮廓系数、canopy法
https://www.biaodianfu.com/k-means-choose-k.html
- 选择批次距离尽可能远的K个点
-
kmeans 与 DBSCAN 区别
https://www.cnblogs.com/hugechuanqi/p/10509307.html
(3) kmeans 是假设数据服从什么分布?※
-
数据类别不平衡处理 ※
https://zhuanlan.zhihu.com/p/32940093 -
优化方法 SGD,Momentum,AdaGrad,RMSProp,Adam ※
https://blog.csdn.net/u010089444/article/details/76725843 -
L1不可导的时候该怎么办 ※
近端梯度法、坐标下降法 -
PCA数学原理(强烈推荐)
http://blog.codinglabs.org/articles/pca-tutorial.html -
召回率和查全率等指标
https://zhuanlan.zhihu.com/p/56109450 -
SVM相关问题 ※
https://blog.csdn.net/szlcw1/article/details/52259668
https://blog.csdn.net/cppjava_/article/details/68060439 -
L1和L2区别 ※
https://blog.csdn.net/jinping_shi/article/details/52433975 -
常见的机器学习模型
https://www.nowcoder.com/ta/review-ml/review?query=&asc=true&order=&page=66 -
Loss Function 有哪些?如何用?
https://www.nowcoder.com/questionTerminal/508661036afd4df298e3887cbb14c68d -
为什么LR模型损失函数使用交叉熵不用均方差?
https://blog.csdn.net/dpengwang/article/details/96597606 -
集成学习 ※
-
bagging 与boosting 区别
https://zhuanlan.zhihu.com/p/31618506 -
Adaboost 与 GDBT 与 XGB 区别联系
https://zhuanlan.zhihu.com/p/42740654 -
树模型理解(非常全)
ID3、C4.5、CART
https://zhuanlan.zhihu.com/p/85731206
Random Forest、Adaboost、GBDT
https://zhuanlan.zhihu.com/p/86263786
XGBoost、LightGBM
https://zhuanlan.zhihu.com/p/87885678
-
深度学习
- tensorflow、keras原理与区别
- dropout原理 ※
https://zhuanlan.zhihu.com/p/38200980 - 人脸识别指标FAR与FRR定义(可和前面的召回率、查全率相对比)
https://blog.csdn.net/zc199329/article/details/83857695 - resnet结构理解 ※
https://zhuanlan.zhihu.com/p/54289848 - CNN的原理?(笔者面阿里淘系算法岗一面的问题之一)※
https://www.jianshu.com/p/27e508c18146
添加一个关于VGG的理解文章链接,里面关于卷积核的大小的选择也是面试点之一(腾讯ieg提前批一面)
https://www.jianshu.com/p/68ac04943f9e