diff --git a/chapters/zh-CN/_toctree.yml b/chapters/zh-CN/_toctree.yml index 6fa441f3b..7751eeeb2 100644 --- a/chapters/zh-CN/_toctree.yml +++ b/chapters/zh-CN/_toctree.yml @@ -25,6 +25,8 @@ title: 总结 - local: chapter1/10 title: 章末小测验 + - local: chapter1/11 + title: 认证考试 quiz: 1 - title: 2. 使用 🤗 Transformers diff --git a/chapters/zh-CN/chapter1/10.mdx b/chapters/zh-CN/chapter1/10.mdx index 2900c46d2..92eca6c15 100644 --- a/chapters/zh-CN/chapter1/10.mdx +++ b/chapters/zh-CN/chapter1/10.mdx @@ -2,10 +2,10 @@ # 章末小测试 [[章末小测试]] -`` +/> 这一章涵盖了很多内容! 如果有一些不太明白的地方,请不要担心; 下一章将帮助你了解这些模块在底层是如何工作的。 diff --git a/chapters/zh-CN/chapter1/11.mdx b/chapters/zh-CN/chapter1/11.mdx new file mode 100644 index 000000000..c606dc9b3 --- /dev/null +++ b/chapters/zh-CN/chapter1/11.mdx @@ -0,0 +1,21 @@ +# 测试时间到了! + +是时候测试你的知识了!我们为你准备了一个小测验来测试你对本章所涉及的概念的理解。 + +要参加测试,你需要遵循以下步骤: + +1. 登录你的“Hugging Face”账号。 +2. 回答测试中的问题。 +3. 提交你的答案。 + + +## 多项选择测验 + +在这个测试中,你将被要求从一个选项列表中选择正确的答案。我们将测试你的监督微调的基本原理。 + + \ No newline at end of file diff --git a/chapters/zh-CN/chapter1/4.mdx b/chapters/zh-CN/chapter1/4.mdx index 827e23803..fa47f8760 100644 --- a/chapters/zh-CN/chapter1/4.mdx +++ b/chapters/zh-CN/chapter1/4.mdx @@ -161,7 +161,7 @@ Transformer 架构最初是为翻译而设计的。在训练期间,编码器 -注意,解码器块中的第一个注意力层关联到解码器的所有(过去的)输入,但是第二个注意力层只使用编码器的输出。因此,它在预测当前单词时,可以使用整个句子的信息。这是非常有用的,因因为不同的语言可以有把词放在不同顺序的语法规则,或者句子后面提供的一些上下文可能有助于确定给定单词的最佳翻译。 +注意,解码器块中的第一个注意力层关联到解码器的所有(过去的)输入,但是第二个注意力层只使用编码器的输出。因此,它在预测当前单词时,可以使用整个句子的信息。这是非常有用的,因为不同的语言可以有把词放在不同顺序的语法规则,或者句子后面提供的一些上下文可能有助于确定给定单词的最佳翻译。 也可以在编码器/解码器中使用*attention mask(注意力掩码层)*,以防止模型关注到某些特殊单词。例如,用于在批量处理句子时使所有输入长度一致的特殊填充词。