在《Attention Is All You Need》谷歌提出了Transformer,以下哪些结构出现在了原文中的Transformer里 。
Multi-Head Attention
positional encoding
batch normalization
feed-forward network