题库 软件开发 题目列表 在《Attention Is All You Need》谷歌提出了Transfo...
多选题

在《Attention Is All You Need》谷歌提出了Transformer,以下哪些结构出现在了原文中的Transformer里 。

A.

Multi-Head Attention

B.

positional encoding

C.

batch normalization

D.

feed-forward network

题目信息
校招真题
-
正确率
0
评论
14
点击