Machine Learning & Recommendation & NLP & DL

词向量相关问题总结

2019-03-27  本文已影响0人  还有下文

1 训练词向量的时候,对矩阵做一些变化,比如乘一些参数,或者变换,问相似性还能否表征,语义的相似性有没有被破坏?

没有,因为 词嵌入矩阵是基于统计关系的构成。

2 哈夫曼树在词向量训练中有什么作用?

改变概率分布的表达,加快训练过程,进而减少训练样本,提高泛化能力

3 python装饰器的功能?负采样的作用?

为已经存在的函数或对象添加额外的功能

4 cnn的权值共享有什么作用?

减少参数,降低了网络模型的复杂度,降低了过拟合程度,同时需要的数据样本少了,提高泛化能力

5 CNN的局部不变性spatial invariant是什么意思?如何做到?

意思是两张在不同位置的猫的图片依然可以被识别出来,通过乘以相同的参数,即权值共享的方式实现。

6 CNN增加了很多层数,参数必然会很多,算法全身是如何缓解参数过多的问题,如何加快训练速度的?

局部连接,权值共享,池化操作

7 CNN的batch normalization有什么意义?

对输入的归一化能够再平衡

8 CNN的池化操作有什么作用?

进一步增加抽象能力,减少参数,提高训练速度,降低过拟合,便于消除维度灾难

9 CNN的全连接层有什么作用?

把之前所有的局部信息做了一次融合,再经过softmax得到结果的概率分布

10 cnn参数的初始化是如何确定的?

取矩阵维度的根号分之一的均匀分布

上一篇 下一篇

猜你喜欢

热点阅读