Attention Is All You Need阅读笔记 transformer 是一个完全由注意力机制组成的搭建的模型,模型复杂度低,并可以进行并行计算,使得计算速度快。在翻译模型上取得了较好的 2019-05-25 论文阅读笔记 classical attention transformer translation classical