NRMS
MSRA 2019年的多头注意力机制的神经网络推荐算法
这里做个简单的总结. 现在有预训练语言模型,直接用预训练语言模型替换news encoder效果会更好。 user端可以借鉴论文中的 Additive attention 得到 history news 的 weight.
NRMS
MSRA 2019年的多头注意力机制的神经网络推荐算法
这里做个简单的总结. 现在有预训练语言模型,直接用预训练语言模型替换news encoder效果会更好。 user端可以借鉴论文中的 Additive attention 得到 history news 的 weight.
道可道,非常道;名可名,非常名。 无名,天地之始,有名,万物之母。 故常无欲,以观其妙,常有欲,以观其徼。 此两者,同出而异名,同谓之玄,玄之又玄,众妙之门。