Skip to content

Commit bf2dcd6

Browse files
agatha197ironAiken2
authored andcommitted
docs(FR-2624): translate remaining English headings in ja and th docs
1 parent 774580f commit bf2dcd6

30 files changed

Lines changed: 2027 additions & 2305 deletions

File tree

packages/backend.ai-webui-docs/src/ja/admin_menu/admin_menu.md

Lines changed: 298 additions & 294 deletions
Large diffs are not rendered by default.
Lines changed: 6 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -1,14 +1,14 @@
11
# エージェントサマリー
22

3-
For now, ユーザーs with 管理者 role only can see agent information via 管理者istration menu.
4-
From 22.09 Backend.AI WebUI supports showing partial information of agent node(s) when configuration is set.
5-
In Agent summary menu, you can see the list of agent information including endpoint address, CPU architecture, resource allocation,
6-
and whether the agent is schedulable or not. This menu is useful to check resource allocation on session creation.
3+
現在、管理者権限を持つユーザーのみが管理メニューを通じてエージェント情報を確認できます。
4+
22.09以降、Backend.AI WebUIは設定に応じてエージェントノードの一部情報を一般ユーザーにも表示できるようになりました。
5+
エージェントサマリーメニューでは、エンドポイントアドレス、CPUアーキテクチャ、リソース割り当て、
6+
およびエージェントのスケジュール可否など、エージェント情報の一覧を確認できます。このメニューは、セッション作成時のリソース割り当て状況の確認に便利です。
77

88
![](../images/agent_summary.png)
99

1010

1111
:::note
12-
Depending on the server configuration, the agent summary service feature may not be available.
13-
In that case, please contact 管理者istrator of your system.
12+
サーバーの設定によっては、エージェントサマリーサービス機能が利用できない場合があります。
13+
その場合は、システムの管理者にお問い合わせください。
1414
:::

packages/backend.ai-webui-docs/src/ja/appendix/appendix.md

Lines changed: 15 additions & 43 deletions
Original file line numberDiff line numberDiff line change
@@ -2,61 +2,37 @@
22

33
<a id="gpu-virtualization-and-fractional-gpu-allocation"></a>
44

5-
## GPU仮想化および分数GPU割り当て
6-
7-
Backend.AI supports GPU virtualization technology which allows single physical
8-
GPU can be divided and shared by multiple ユーザーs simultaneously. Therefore, if
9-
you want to execute a task that does not require much GPU computation
10-
capability, you can create a compute session by allocating a portion of the GPU.
11-
The amount of GPU resources that 1 fGPU actually allocates may vary from system
12-
to system depending on 管理者istrator settings. For example, if the 管理者istrator
13-
has set one physical GPU to be divided into five pieces, 5 fGPU means 1 physical
14-
GPU, or 1 fGPU means 0.2 physical GPU. If you set 1 fGPU when creating a compute
15-
session, the session can utilize the streaming multiprocessor (SM) and GPU
16-
memory equivalent to 0.2 physical GPU.
5+
## GPU仮想化およびフラクショナルGPU割り当て
6+
7+
Backend.AIは、1つの物理GPUを複数のユーザーで分割して同時に共有できるGPU仮想化技術をサポートしています。したがって、GPUの計算能力をあまり必要としないタスクを実行する場合、GPUの一部を割り当ててコンピュートセッションを作成できます。1フラクショナルGPU (fGPU) が実際に割り当てるGPUリソースの量は、管理者の設定によってシステムごとに異なる場合があります。例えば、管理者が1つの物理GPUを5つに分割するように設定した場合、5 fGPUは1物理GPU、または1 fGPUは0.2物理GPUを意味します。コンピュートセッション作成時に1 fGPUを設定すると、そのセッションは0.2物理GPUに相当するストリーミングマルチプロセッサ (SM) およびGPUメモリを利用できます。
178

189
このセクションでは、GPUの一部を割り当てて計算セッションを作成し、その計算コンテナ内で認識されたGPUが本当に部分的な物理GPUに対応しているかどうかを確認します。
1910

20-
First, let's check the type of physical GPU installed in the
21-
host node and the amount of memory. The GPU node used in this guide is equipped
22-
with a GPU with 8 GB of memory as in the following figure. And through the
23-
管理者istrator settings, 1 fGPU is set to an amount equivalent to 0.5 physical
24-
GPU (or 1 physical GPU is 2 fGPU).
11+
まず、ホストノードにインストールされている物理GPUの種類とメモリ容量を確認しましょう。本ガイドで使用するGPUノードは、以下の図のように8 GBのメモリを搭載したGPUを備えています。また、管理者の設定により、1 fGPUは0.5物理GPUに相当する量(または1物理GPUは2 fGPU)に設定されています。
2512

2613
![](../images/host_gpu.png)
2714

28-
Now let's go to the セッション page and create a compute session by allocating 0.5
29-
fGPU as follows:
15+
それでは、セッションページに移動し、以下のように0.5 fGPUを割り当ててコンピュートセッションを作成してみましょう。
3016

3117
![](../images/session_launch_dialog_with_gpu.png)
3218

33-
In the AI Accelerator panel of the session list, you can see that
34-
0.5 fGPU is allocated.
19+
セッション一覧のAIアクセラレータパネルで、0.5 fGPUが割り当てられていることを確認できます。
3520

3621
![](../images/session_list_with_gpu.png)
3722

38-
Now, let's connect directly to the container and check if the allocated GPU
39-
memory is really equivalent to 0.5 units (~2 GB). Let's bring up a web
40-
terminal. When the terminal comes up, run the `nvidia-smi` command. As you can
41-
see in the following figure, you can see that about 2 GB of GPU memory is
42-
allocated. This shows that the physical GPU is actually divided into quarters and allocated inside the
43-
container for this compute session, which is not possible by a way like PCI passthrough.
23+
次に、コンテナに直接接続し、割り当てられたGPUメモリが本当に0.5ユニット(約2 GB)に相当するかを確認しましょう。Webターミナルを起動し、ターミナルが表示されたら `nvidia-smi` コマンドを実行します。以下の図のとおり、約2 GBのGPUメモリが割り当てられていることを確認できます。これは、このコンピュートセッションのコンテナ内で物理GPUが実際に4分の1に分割して割り当てられていることを示しており、PCIパススルーのような方法では実現できないものです。
4424

4525
![](../images/nvidia_smi_inside_container.png)
4626

4727
Jupyter Notebookを開いて、シンプルなMLトレーニングコードを実行しましょう。
4828

4929
![](../images/mnist_train.png)
5030

51-
While training is in progress, connect to the shell of the GPU host node and
52-
execute the `nvidia-smi` command. You can see that there is one GPU attached
53-
to the process and this process is occupying about 25% of the resources of the
54-
physical GPU. (GPU occupancy can vary greatly depending on training code and GPU
55-
model.)
31+
トレーニング実行中に、GPUホストノードのシェルに接続し、`nvidia-smi` コマンドを実行します。プロセスに1つのGPUがアタッチされており、このプロセスが物理GPUのリソースの約25%を占有していることを確認できます。(GPU占有率はトレーニングコードやGPUモデルによって大きく異なる場合があります。)
5632

5733
![](../images/host_nvidia_smi.png)
5834

59-
Alternatively, you can run the `nvidia-smi` command from the web terminal to query the GPU usage history inside the container.
35+
あるいは、Webターミナルから `nvidia-smi` コマンドを実行して、コンテナ内のGPU使用履歴を確認することもできます。
6036

6137

6238
<a id="automated-job-scheduling"></a>
@@ -88,31 +64,27 @@ Backend.AIは、さまざまなプリビルドのMLおよびHPCカーネルイ
8864

8965
![](../images/various_kernel_images.png)
9066

91-
Here, let's select the TensorFlow 2.3 environment and created a session.
67+
ここでは、TensorFlow 2.3 環境を選択してセッションを作成してみましょう。
9268

9369
![](../images/session_launch_dialog_tf23.png)
9470

95-
Open the web terminal of the created session and run the following Python
96-
command. You can see that TensorFlow 2.3 version is installed.
71+
作成したセッションのWebターミナルを開き、以下のPythonコマンドを実行します。TensorFlow 2.3 がインストールされていることを確認できます。
9772

9873
![](../images/tf23_version_print.png)
9974

100-
This time, let's select the TensorFlow 1.15 environment to create a compute
101-
session. If resources are insufficient, delete the previous session.
75+
今度は、TensorFlow 1.15 環境を選択してコンピュートセッションを作成しましょう。リソースが不足している場合は、先に作成したセッションを削除してください。
10276

10377
![](../images/session_launch_dialog_tf115.png)
10478

105-
Open the web terminal of the created session and run the same Python command as
106-
before. You can see that TensorFlow 1.15(.4) version is installed.
79+
作成したセッションのWebターミナルを開き、先ほどと同じPythonコマンドを実行します。TensorFlow 1.15(.4) がインストールされていることを確認できます。
10780

10881
![](../images/tf115_version_print.png)
10982

110-
Finally, create a compute session using PyTorch version 1.7.
83+
最後に、PyTorch 1.7 を使用してコンピュートセッションを作成します。
11184

11285
![](../images/session_launch_dialog_pytorch17.png)
11386

114-
Open the web terminal of the created session and run the following Python
115-
command. You can see that PyTorch 1.8 version is installed.
87+
作成したセッションのWebターミナルを開き、以下のPythonコマンドを実行します。PyTorch 1.8 がインストールされていることを確認できます。
11688

11789
![](../images/pytorch17_version_print.png)
11890

packages/backend.ai-webui-docs/src/ja/chat/chat.md

Lines changed: 35 additions & 35 deletions
Original file line numberDiff line numberDiff line change
@@ -1,86 +1,86 @@
1-
# Chat Page
1+
# チャットページ
22

33

4-
Starting from version 25.05, the 'LLMプレイグラウンド' feature has been separated into its own page and renamed to Chat.
5-
Chat page enables ユーザーs to conveniently compare and interact with different LLM models all in one location.
6-
This allows ユーザーs to experience the services offered by Backend.AI as well as a variety of large language models (LLMs).
4+
バージョン25.05以降、'LLMプレイグラウンド'機能は独立したページに分離され、チャット(Chat)という名称に変更されました。
5+
チャットページでは、さまざまなLLMモデルを一か所で便利に比較し、対話することができます。
6+
これにより、ユーザーはBackend.AIが提供するサービスと多様な大規模言語モデル(LLM)を体験できます。
77

88
![](../images/chat_page.png)
99

1010
<a id="selecting-models"></a>
1111

1212
## モデルの選択
1313

14-
Users can select the endpoint and model from the top left corner of each chat card on the Chat page.
15-
Clicking the endpoint field allows ユーザーs to search for or choose from available endpoints, and the model can be selected in the same way.
16-
If no model is associated with the selected endpoint, verify the base path and token compatibility with OpenAI, then click the 'Refresh model info' button.
14+
チャットページの各チャットカードの左上で、エンドポイントとモデルを選択できます。
15+
エンドポイント欄をクリックすると、利用可能なエンドポイントを検索したり一覧から選択したりでき、モデルも同じ方法で選択できます。
16+
選択したエンドポイントに対応するモデルがない場合は、OpenAI互換のベースパスおよびトークンを確認してから、'Refresh model info' ボタンをクリックしてください。
1717

1818
![](../images/custom_model.png)
1919

20-
以下の説明を参照して、カスタムモーダル設定を構成するために必要な入力を確認してください
20+
カスタムモデル設定を構成するために必要な入力項目については、以下の説明を参照してください
2121

22-
- baseURL (optional): Base URL of the server where the model is located.
23-
Make sure to include the version information.
24-
For instance, when utilizing the OpenAI API, ユーザーs should enter https://api.openai.com/v1.
25-
- Token (optional): An authentication key to access the model service. Tokens can be
26-
generated from various services, not just Backend.AI. The format and generation process
27-
may vary depending on the service. Always refer to the specific service's guide for details.
28-
For instance, when using the service generated by Backend.AI, please refer to the
29-
[Generating Tokens](#generating-tokens) section for instructions on how to generate tokens.
22+
- baseURL(任意): モデルが配置されているサーバーのベースURLです。
23+
バージョン情報を必ず含めてください。
24+
例えば、OpenAI APIを利用する場合は https://api.openai.com/v1 と入力します。
25+
- Token(任意): モデルサービスにアクセスするための認証キーです。トークンは
26+
Backend.AIだけでなく、さまざまなサービスで生成できます。形式と生成プロセスは
27+
サービスによって異なる場合があるため、詳細については各サービスのガイドを参照してください。
28+
例えば、Backend.AIで生成されたサービスを利用する場合は、
29+
トークンの生成方法について[トークンの生成](#generating-tokens)セクションを参照してください。
3030

3131
<a id="add-or-remove-comparison-chat-cards"></a>
3232

33-
## Add or remove comparison chat cards
33+
## 比較チャットカードの追加と削除
3434

35-
To add new comparison chat cards, click the comparison icon button located in the top right corner.
35+
新しい比較チャットカードを追加するには、右上にある比較アイコンボタンをクリックします。
3636

3737
![](../images/add_cards.png)
3838

39-
To remove a chat session, click on the 'more' button located in the upper right corner of the chat card.
40-
Then a dropdown menu will appear, and ユーザーs can select 'Delete Chat' to remove a chat session.
41-
Please be cautious as this will delete all entered content.
39+
チャットセッションを削除するには、チャットカードの右上にある'more'ボタンをクリックしてください。
40+
ドロップダウンメニューが表示されるので、'Delete Chat'を選択するとチャットセッションを削除できます。
41+
入力した内容がすべて削除されるため、ご注意ください。
4242

4343
![](../images/delete_chatting_session.png)
4444

4545
<a id="clear-chat-history"></a>
4646

47-
## Clear chat history
47+
## チャット履歴のクリア
4848

49-
Clicking the 'more' button will reveal the 'Clear chat' option.
50-
By selecting this, ユーザーs will erase all chat history associated with the card,
51-
although the card session itself will remain active.
49+
'more'ボタンをクリックすると、'Clear chat'オプションが表示されます。
50+
このオプションを選択すると、カードに紐づくすべてのチャット履歴を削除できます。
51+
ただし、カードのセッション自体は引き続き有効なまま維持されます。
5252

5353
![](../images/delete_chatting_session.png)
5454

5555
<a id="synchronize-input"></a>
5656

5757
## 入力を同期する
5858

59-
The 'Sync Input' button, located at the top right, enables the synchronization of input across chat cards where the option is enabled.
60-
Enabling 'Sync input' means that pressing 'Enter' or clicking the 'Send' button on
61-
any card will submit the input from the card ユーザーs are currently working on.
62-
This functionality is beneficial for comparing the outputs of various models using identical input data.
59+
右上にある'Sync Input'ボタンを使用すると、オプションが有効になっているチャットカード間で入力を同期できます。
60+
'Sync input'が有効な状態では、いずれかのカードで'Enter'を押すか'Send'ボタンをクリックすると、
61+
現在操作中のカードの入力が一括して送信されます。
62+
この機能は、同じ入力データを使用してさまざまなモデルの出力を比較する際に便利です。
6363

6464
![](../images/synchronized_input.png)
6565

6666
<a id="parameter-adjustment"></a>
6767

68-
## Parameter adjustment
68+
## パラメータ調整
6969

70-
Click the parameter button in the top-right corner to adjust the parameters for each model. Users can set various values such as Max Tokens, Temperature, Top P, and Top K.
71-
Using the synchronize feature, ユーザーs can apply different parameters to the same model and then compare the results.
70+
右上のパラメータボタンをクリックすると、各モデルのパラメータを調整できます。Max TokensTemperatureTop PTop Kなどのさまざまな値を設定できます。
71+
同期機能を使用すると、同じモデルに対して異なるパラメータを適用し、その結果を比較できます。
7272

7373
![](../images/parameter_settings.png)
7474

7575
<a id="chat-history"></a>
7676

77-
## Chat history
77+
## チャット履歴
7878

79-
To start new chat, click the '+' button located in the top right corner.
79+
新しいチャットを開始するには、右上にある'+'ボタンをクリックします。
8080

8181
![](../images/new_chat.png)
8282

83-
All chat history is stored in local storage, and ユーザーs can access previous chats by clicking the history button in the top-right corner.
83+
すべてのチャット履歴はローカルストレージに保存され、右上の履歴ボタンをクリックすると以前のチャットにアクセスできます。
8484

8585
![](../images/history_button.png)
8686

0 commit comments

Comments
 (0)