diff --git a/units/en/unit1/dummy-agent-library.mdx b/units/en/unit1/dummy-agent-library.mdx index c78c90a5..dada0a4c 100644 --- a/units/en/unit1/dummy-agent-library.mdx +++ b/units/en/unit1/dummy-agent-library.mdx @@ -20,6 +20,12 @@ We will use built-in Python packages like `datetime` and `os` so that you can tr You can follow the process [in this notebook](https://huggingface.co/agents-course/notebooks/blob/main/unit1/dummy_agent_library.ipynb) and **run the code yourself**. +To run this notebook, **you need a Hugging Face token** that you can get from https://hf.co/settings/tokens. + +For more information on how to run Jupyter Notebooks, checkout Jupyter Notebooks on the Hugging Face Hub. + +You also need to request access to the Meta Llama models. + ## Serverless API In the Hugging Face ecosystem, there is a convenient feature called Serverless API that allows you to easily run inference on many models. There's no installation or deployment required. diff --git a/units/en/unit1/what-are-llms.mdx b/units/en/unit1/what-are-llms.mdx index 23f322a9..2ed7fd94 100644 --- a/units/en/unit1/what-are-llms.mdx +++ b/units/en/unit1/what-are-llms.mdx @@ -211,10 +211,4 @@ That was a lot of information! We've covered the basics of what LLMs are, how th If you'd like to dive even deeper into the fascinating world of language models and natural language processing, don't hesitate to check out our free NLP course. -Now that we understand how LLMs work, it's time to see **how LLMs structure their generations in a conversational context**. - -To run this notebook, **you need a Hugging Face token** that you can get from https://hf.co/settings/tokens. - -For more information on how to run Jupyter Notebooks, checkout Jupyter Notebooks on the Hugging Face Hub. - -You also need to request access to the Meta Llama models. +Now that we understand how LLMs work, it's time to see **how LLMs structure their generations in a conversational context**. \ No newline at end of file diff --git a/units/es/unit1/dummy-agent-library.mdx b/units/es/unit1/dummy-agent-library.mdx index 4231f513..ddd73672 100644 --- a/units/es/unit1/dummy-agent-library.mdx +++ b/units/es/unit1/dummy-agent-library.mdx @@ -20,6 +20,12 @@ Utilizaremos paquetes integrados de Python como `datetime` y `os` para que pueda Puedes seguir el proceso [en este notebook](https://huggingface.co/agents-course/notebooks/blob/main/unit1/dummy_agent_library.ipynb) y **ejecutar el código tú mismo**. +Para ejecutar este notebook, **necesitas un token de Hugging Face** que puedes obtener de https://hf.co/settings/tokens. + +Para más información sobre cómo ejecutar Jupyter Notebooks, consulta Jupyter Notebooks en el Hugging Face Hub. + +También necesitas solicitar acceso a los modelos Meta Llama. + ## API Serverless En el ecosistema de Hugging Face, hay una característica conveniente llamada API Serverless que te permite ejecutar fácilmente inferencia en muchos modelos. No se requiere instalación ni despliegue. diff --git a/units/es/unit1/what-are-llms.mdx b/units/es/unit1/what-are-llms.mdx index f990c0f5..388495a7 100644 --- a/units/es/unit1/what-are-llms.mdx +++ b/units/es/unit1/what-are-llms.mdx @@ -209,10 +209,4 @@ Exploraremos estos pasos con más detalle en esta Unidad, pero por ahora, lo que Si deseas profundizar aún más en el fascinante mundo de los modelos de lenguaje y el procesamiento del lenguaje natural, no dudes en consultar nuestro curso gratuito de NLP. -Ahora que entendemos cómo funcionan los LLMs, es hora de ver **cómo los LLMs estructuran sus generaciones en un contexto conversacional**. - -Para ejecutar este notebook, **necesitas un token de Hugging Face** que puedes obtener de https://hf.co/settings/tokens. - -Para más información sobre cómo ejecutar Jupyter Notebooks, consulta Jupyter Notebooks en el Hugging Face Hub. - -También necesitas solicitar acceso a los modelos Meta Llama. \ No newline at end of file +Ahora que entendemos cómo funcionan los LLMs, es hora de ver **cómo los LLMs estructuran sus generaciones en un contexto conversacional**. \ No newline at end of file diff --git a/units/fr/unit1/dummy-agent-library.mdx b/units/fr/unit1/dummy-agent-library.mdx index df34c8a7..2c387e68 100644 --- a/units/fr/unit1/dummy-agent-library.mdx +++ b/units/fr/unit1/dummy-agent-library.mdx @@ -18,6 +18,10 @@ Nous utiliserons des packages intégrés de Python tels que `datetime` et `os` a Vous pouvez suivre le processus [dans ce *notebook*](https://huggingface.co/agents-course/notebooks/blob/main/fr/unit1/dummy_agent_library.ipynb) et **exécuter le code vous-même**. +Pour exécuter le notebook, **vous avez besoin d'un *token* d'authentication Hugging Face** que vous pouvez obtenir sur la page https://hf.co/settings/tokens. + +Vous devez également demander l'accès aux modèles Llama 3.2 de Meta. + ## API sans serveur Dans l'écosystème Hugging Face, il existe une fonctionnalité pratique appelée API sans serveur qui vous permet d'exécuter facilement des inférences sur de nombreux modèles. Aucune installation ou déploiement n'est requis. diff --git a/units/fr/unit1/what-are-llms.mdx b/units/fr/unit1/what-are-llms.mdx index 97f4f634..e6b1b2dc 100644 --- a/units/fr/unit1/what-are-llms.mdx +++ b/units/fr/unit1/what-are-llms.mdx @@ -212,8 +212,4 @@ Cela fait beaucoup d'informations ! Nous avons couvert les bases de ce que sont Si vous souhaitez plonger encore plus profondément dans le monde fascinant des modèles de langage et du traitement du langage naturel, n'hésitez pas à consulter notre cours gratuit sur le NLP. -Maintenant que nous comprenons le fonctionnement des LLM, il est temps de voir **comment ils structurent leurs générations dans un contexte conversationnel**. - -Pour exécuter le notebook, **vous avez besoin d'un *token* d'authentication Hugging Face** que vous pouvez obtenir sur la page https://hf.co/settings/tokens. - -Vous devez également demander l'accès aux modèles Llama 3.2 de Meta. +Maintenant que nous comprenons le fonctionnement des LLM, il est temps de voir **comment ils structurent leurs générations dans un contexte conversationnel**. \ No newline at end of file diff --git a/units/ko/unit1/dummy-agent-library.mdx b/units/ko/unit1/dummy-agent-library.mdx index 1801ff4a..453bdc52 100644 --- a/units/ko/unit1/dummy-agent-library.mdx +++ b/units/ko/unit1/dummy-agent-library.mdx @@ -20,6 +20,12 @@ [이 노트북](https://huggingface.co/agents-course/notebooks/blob/main/dummy_agent_library.ipynb)에서 과정을 따라가며 **직접 코드를 실행**해볼 수 있습니다. +이 노트북을 실행하려면, **Hugging Face 토큰** 을 이곳에서 https://hf.co/settings/tokens 발급하세요! + +Jupyter Notebook 실행 방법에 대한 자세한 내용은 Hugging Face Hub의 Jupyter Notebooks 문서를 참고해주세요. + +또한, Meta Llama 모델에 대한 액세스를 요청해야 합니다. + ## 서버리스 API [[serverless-api]] Hugging Face 생태계에는 다양한 모델에서 쉽게 추론을 실행할 수 있게 해주는 서버리스 API라는 편리한 기능이 있습니다. 별도의 설치나 배포 과정이 필요 없습니다. diff --git a/units/ko/unit1/what-are-llms.mdx b/units/ko/unit1/what-are-llms.mdx index a1f0ed91..69cc635a 100644 --- a/units/ko/unit1/what-are-llms.mdx +++ b/units/ko/unit1/what-are-llms.mdx @@ -216,10 +216,4 @@ LLM은 사용자 명령을 해석하고, 대화의 문맥을 유지하며, 계 언어 모델과 자연어 처리에 대해 더 깊이 공부하고 싶다면, Hugging Face의 무료 NLP 강의 를 확인해 보세요! -이제 우리는 LLM이 어떻게 작동하는지에 대해 배웠으니, **LLM이 대화형 환경에서 어떻게 텍스트를 생성하는지** 살펴볼 차례입니다! - -이 노트북을 실행하려면, **Hugging Face 토큰** 을 이곳에서 https://hf.co/settings/tokens 발급하세요! - -Jupyter Notebook 실행 방법에 대한 자세한 내용은 Hugging Face Hub의 Jupyter Notebooks 문서를 참고해주세요. - -또한, Meta Llama 모델에 대한 액세스를 요청해야 합니다. +이제 우리는 LLM이 어떻게 작동하는지에 대해 배웠으니, **LLM이 대화형 환경에서 어떻게 텍스트를 생성하는지** 살펴볼 차례입니다! \ No newline at end of file diff --git a/units/ru-RU/unit1/dummy-agent-library.mdx b/units/ru-RU/unit1/dummy-agent-library.mdx index 2be0cac7..3ab14cc1 100644 --- a/units/ru-RU/unit1/dummy-agent-library.mdx +++ b/units/ru-RU/unit1/dummy-agent-library.mdx @@ -20,6 +20,12 @@ Вы можете отслеживать процесс [в этом блокноте](https://huggingface.co/agents-course/notebooks/blob/main/unit1/dummy_agent_library.ipynb) и **запустите код самостоятельно**. +Чтобы запустить этот блокнот, **вам понадобится токен Hugging Face** который вы можете получить из https://hf.co/settings/tokens. + +Более подробную информацию о том, как запустить блокноты Jupyter, изучите Блокноты Jupyter на Hugging Face Hub. + +Вам также необходимо запросить доступ к модели Meta Llama. + ## Бессерверный API В экосистеме Hugging Face есть удобная функция Бессерверный API (Serverless API), которая позволяет легко выполнять инференс для многих моделей. При этом не требуется установки или развертывания. diff --git a/units/ru-RU/unit1/what-are-llms.mdx b/units/ru-RU/unit1/what-are-llms.mdx index 823a381e..9b33e9ac 100644 --- a/units/ru-RU/unit1/what-are-llms.mdx +++ b/units/ru-RU/unit1/what-are-llms.mdx @@ -211,10 +211,4 @@ LLM являются ключевым компонентом агентов ис Если вы хотите еще глубже погрузиться в увлекательный мир языковых моделей и обработки естественного языка, не поленитесь ознакомиться с нашим бесплатным курсом по NLP. -Теперь, когда мы поняли, как работают LLM, пришло время увидеть **как LLM структурируют свою генерацию в разговорном контексте**. - -Чтобы запустить этот блокнот, **вам понадобится токен Hugging Face** который вы можете получить из https://hf.co/settings/tokens. - -Более подробную информацию о том, как запустить блокноты Jupyter, изучите Блокноты Jupyter на Hugging Face Hub. - -Вам также необходимо запросить доступ к модели Meta Llama. +Теперь, когда мы поняли, как работают LLM, пришло время увидеть **как LLM структурируют свою генерацию в разговорном контексте**. \ No newline at end of file diff --git a/units/vi/unit1/dummy-agent-library.mdx b/units/vi/unit1/dummy-agent-library.mdx index a30710f6..046dd407 100644 --- a/units/vi/unit1/dummy-agent-library.mdx +++ b/units/vi/unit1/dummy-agent-library.mdx @@ -20,6 +20,12 @@ Chúng mình sẽ sử dụng các package Python tích hợp sẵn như `dateti Bạn có thể theo dõi quy trình [trong notebook này](https://huggingface.co/agents-course/notebooks/blob/main/unit1/dummy_agent_library.ipynb) và **tự chạy code**. +Để chạy [notebook này](https://huggingface.co/agents-course/notebooks/blob/main/unit1/dummy_agent_library.ipynb), **bạn cần Hugging Face token** lấy từ [https://hf.co/settings/tokens](https://hf.co/settings/tokens). + +Xem thêm hướng dẫn chạy Jupyter Notebook tại [Jupyter Notebooks on the Hugging Face Hub](https://huggingface.co/docs/hub/notebooks). + +Bạn cũng cần xin quyền truy cập [model Meta Llama](https://huggingface.co/meta-llama/Llama-3.2-3B-Instruct). + ## Serverless API Trong hệ sinh thái Hugging Face, có một tính năng tiện lợi gọi là Serverless API cho phép chạy inference trên nhiều mô hình dễ dàng. Không cần cài đặt hay triển khai. diff --git a/units/vi/unit1/what-are-llms.mdx b/units/vi/unit1/what-are-llms.mdx index 6150b466..9348726d 100644 --- a/units/vi/unit1/what-are-llms.mdx +++ b/units/vi/unit1/what-are-llms.mdx @@ -207,10 +207,4 @@ Thật nhiều thông tin! Ta đã điểm qua kiến thức cơ bản về LLM, Nếu muốn khám phá sâu hơn về mô hình ngôn ngữ và xử lý ngôn ngữ tự nhiên, đừng ngần ngại xem [khóa học NLP miễn phí](https://huggingface.co/learn/nlp-course/chapter1/1) của chúng tôi. -Giờ đã hiểu cách LLM hoạt động, hãy xem **cách LLM cấu trúc output trong ngữ cảnh hội thoại**. - -Để chạy [notebook này](https://huggingface.co/agents-course/notebooks/blob/main/unit1/dummy_agent_library.ipynb), **bạn cần Hugging Face token** lấy từ [https://hf.co/settings/tokens](https://hf.co/settings/tokens). - -Xem thêm hướng dẫn chạy Jupyter Notebook tại [Jupyter Notebooks on the Hugging Face Hub](https://huggingface.co/docs/hub/notebooks). - -Bạn cũng cần xin quyền truy cập [model Meta Llama](https://huggingface.co/meta-llama/Llama-3.2-3B-Instruct). \ No newline at end of file +Giờ đã hiểu cách LLM hoạt động, hãy xem **cách LLM cấu trúc output trong ngữ cảnh hội thoại**. \ No newline at end of file diff --git a/units/zh-CN/unit1/dummy-agent-library.mdx b/units/zh-CN/unit1/dummy-agent-library.mdx index 73d92752..d390fbfd 100644 --- a/units/zh-CN/unit1/dummy-agent-library.mdx +++ b/units/zh-CN/unit1/dummy-agent-library.mdx @@ -23,6 +23,12 @@ 你可以[在这个 notebook 中](https://huggingface.co/agents-course/notebooks/blob/main/unit1/dummy_agent_library.ipynb)跟随过程并**自己运行代码**。 +要运行这个笔记本,**你需要一个 Hugging Face token**,你可以从 https://hf.co/settings/tokens 获取。 + +有关如何运行 Jupyter Notebook 的更多信息,请查看 Hugging Face Hub 上的 Jupyter Notebook。 + +你还需要请求访问 Meta Llama 模型。 + ## 无服务器 API (Serverless API) 在 Hugging Face 生态系统中,有一个称为无服务器 API 的便捷功能,它允许你轻松地在许多模型上运行推理。不需要安装或部署。 diff --git a/units/zh-CN/unit1/what-are-llms.mdx b/units/zh-CN/unit1/what-are-llms.mdx index 26bb5dad..e7a2ce41 100644 --- a/units/zh-CN/unit1/what-are-llms.mdx +++ b/units/zh-CN/unit1/what-are-llms.mdx @@ -246,10 +246,4 @@ Transformer 架构的一个关键方面是**注意力机制**。在预测下一 如果你想更深入地探索语言模型和自然语言处理这个迷人的世界,不妨查看我们的免费 NLP 课程。 -现在我们已经了解了大语言模型的工作原理,接下来是时候看看**大语言模型如何在对话语境中构建其生成内容**了。 - -要运行这个笔记本,**你需要一个 Hugging Face token**,你可以从 https://hf.co/settings/tokens 获取。 - -有关如何运行 Jupyter Notebook 的更多信息,请查看 Hugging Face Hub 上的 Jupyter Notebook。 - -你还需要请求访问 Meta Llama 模型。 +现在我们已经了解了大语言模型的工作原理,接下来是时候看看**大语言模型如何在对话语境中构建其生成内容**了。 \ No newline at end of file