知识点

2020-11-13  本文已影响0人  悠悠渔隐

梯度消失原因

lstm为什么可以解决梯度消失

评价指标 auc ndcg mrr hr(hit rate)

rnn lstm gru的公式

怎么防止过拟合

parameter server的原理

model serving的主要方法

模型评估等知识的理解程度

embedding方法

attention机制 attention 公式

multi task

softmax函数的定义是什么?(知识

神经网络为什么会产生梯度消失现象?(知识

常见的激活函数有哪些?都有什么特点?(知识

挑一种激活函数推导梯度下降的过程。(知识+逻辑

Attention机制什么?(知识

阿里是如何将attention机制引入推荐模型的?(知识+业务

DIN是基于什么业务逻辑引入attention机制的?(业务

DIN中将用户和商品进行了embedding,请讲清楚两项你知道的embedding方法。(知识

你如何serving类似DIN这样的深度学习模型(工具+业务)

写出全概率公司和贝叶斯公式

模型训练为什么要引入偏差(bias)和方差(variance)

position embedding

写出attention公式

attention 里q k v分别代表什么

为什么self attention可替代seq2seq

NN,RNN,个别聚类算法,模型评估等知识的理解程度

spark的调优经验,model serving的主要方法,parameter server的原理

GAN,LSTM,online learning的基本理解

embedding方法,attention机制,multi task,reinforcement learning,online learning的基本理解

https://zhuanlan.zhihu.com/p/76827460

https://zhuanlan.zhihu.com/p/76827460

百面机器学习

上一篇 下一篇

猜你喜欢

热点阅读