提示:本文更新于2024年8月12日

《Attention Is All You Need》是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型名字叫Transformer,它抛弃了以往深度学习任务里面使用到的CNN和RNN,它完全基于注意力机制,不需要重复和卷积。同时,更具并行性,需要的训练时间显著减少。后来Transformer模型广泛应用于NLP领域,例如机器翻译,问答系统,文本摘要和语音识别等方向,并获得巨大的成功。

《Attention Is All You Need》论文下载

https://arxiv.org/pdf/1706.03762v5.pdf

《Attention Is All You Need》论文解读

https://zhuanlan.zhihu.com/p/34781297

https://www.jianshu.com/p/b1030350aadb

读者推荐

如果想真正的学好深度学习,极力推荐大家关注《PyTorch面试精华》