Skip to content
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
2 changes: 2 additions & 0 deletions chapters/zh-CN/_toctree.yml
Original file line number Diff line number Diff line change
Expand Up @@ -25,6 +25,8 @@
title: 总结
- local: chapter1/10
title: 章末小测验
- local: chapter1/11
title: 认证考试
quiz: 1

- title: 2. 使用 🤗 Transformers
Expand Down
4 changes: 2 additions & 2 deletions chapters/zh-CN/chapter1/10.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -2,10 +2,10 @@

# 章末小测试 [[章末小测试]]

`<CourseFloatingBanner
<CourseFloatingBanner
chapter={1}
classNames="absolute z-10 right-0 top-0"
/>`
/>

这一章涵盖了很多内容! 如果有一些不太明白的地方,请不要担心; 下一章将帮助你了解这些模块在底层是如何工作的。

Expand Down
21 changes: 21 additions & 0 deletions chapters/zh-CN/chapter1/11.mdx
Original file line number Diff line number Diff line change
@@ -0,0 +1,21 @@
# 测试时间到了!

是时候测试你的知识了!我们为你准备了一个小测验来测试你对本章所涉及的概念的理解。

要参加测试,你需要遵循以下步骤:

1. 登录你的“Hugging Face”账号。
2. 回答测试中的问题。
3. 提交你的答案。


## 多项选择测验

在这个测试中,你将被要求从一个选项列表中选择正确的答案。我们将测试你的监督微调的基本原理。

<iframe
src="https://huggingface-course-chapter-1-exam.hf.space"
frameborder="0"
width="850"
height="450"
></iframe>
2 changes: 1 addition & 1 deletion chapters/zh-CN/chapter1/4.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -161,7 +161,7 @@ Transformer 架构最初是为翻译而设计的。在训练期间,编码器
<img class="hidden dark:block" src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/transformers-dark.svg" alt="Architecture of a Transformers models"/>
</div>

注意,解码器块中的第一个注意力层关联到解码器的所有(过去的)输入,但是第二个注意力层只使用编码器的输出。因此,它在预测当前单词时,可以使用整个句子的信息。这是非常有用的,因因为不同的语言可以有把词放在不同顺序的语法规则,或者句子后面提供的一些上下文可能有助于确定给定单词的最佳翻译。
注意,解码器块中的第一个注意力层关联到解码器的所有(过去的)输入,但是第二个注意力层只使用编码器的输出。因此,它在预测当前单词时,可以使用整个句子的信息。这是非常有用的,因为不同的语言可以有把词放在不同顺序的语法规则,或者句子后面提供的一些上下文可能有助于确定给定单词的最佳翻译。

也可以在编码器/解码器中使用*attention mask(注意力掩码层)*,以防止模型关注到某些特殊单词。例如,用于在批量处理句子时使所有输入长度一致的特殊填充词。

Expand Down
Loading