一句话解释Attention技术 2020-03-04 本文已影响0人 数据智能谷 一句话: Attention就是权重。 带有Attention机制的计算模型,就是之前的计算参数中,有多了一层权重参数。由此带来 好处:结果可能更加准确。 坏处:计算量增加。