Skip to content

Commit ceb2d5b

Browse files
docs: update translated document pages (#2697)
1 parent 5e458ad commit ceb2d5b

File tree

9 files changed

+562
-760
lines changed

9 files changed

+562
-760
lines changed

docs/ja/models/index.md

Lines changed: 173 additions & 148 deletions
Large diffs are not rendered by default.

docs/ja/models/litellm.md

Lines changed: 6 additions & 97 deletions
Original file line numberDiff line numberDiff line change
@@ -2,103 +2,12 @@
22
search:
33
exclude: true
44
---
5-
# LiteLLM による任意モデルの使用
5+
# LiteLLM
66

7-
!!! note
7+
<script>
8+
window.location.replace("../#litellm");
9+
</script>
810

9-
LiteLLM 統合は ベータ です。特に小規模なモデルプロバイダーでは問題が発生する可能性があります。問題があれば [GitHub issues](https://github.com/openai/openai-agents-python/issues) からご報告ください。迅速に修正します
11+
このページは [Models の LiteLLM セクション](index.md#litellm)に移動しました
1012

11-
[LiteLLM](https://docs.litellm.ai/docs/) は、単一のインターフェースで 100 以上のモデルを利用できるライブラリです。Agents SDK で任意の AI モデルを使えるようにするため、LiteLLM 統合を追加しました。
12-
13-
## セットアップ
14-
15-
`litellm` を利用可能にする必要があります。オプションの `litellm` 依存関係グループをインストールしてください。
16-
17-
```bash
18-
pip install "openai-agents[litellm]"
19-
```
20-
21-
完了したら、任意の エージェント で [`LitellmModel`][agents.extensions.models.litellm_model.LitellmModel] を使用できます。
22-
23-
##
24-
25-
これは完全に動作するサンプルです。実行するとモデル名と API キーの入力を求められます。例えば次のように入力できます。
26-
27-
- モデルに `openai/gpt-4.1`、OpenAI の API キー
28-
- モデルに `anthropic/claude-3-5-sonnet-20240620`、Anthropic の API キー
29-
- など
30-
31-
LiteLLM でサポートされているモデルの一覧は、[プロバイダーのドキュメント](https://docs.litellm.ai/docs/providers)をご覧ください。
32-
33-
```python
34-
from __future__ import annotations
35-
36-
import asyncio
37-
38-
from agents import Agent, Runner, function_tool, set_tracing_disabled
39-
from agents.extensions.models.litellm_model import LitellmModel
40-
41-
@function_tool
42-
def get_weather(city: str):
43-
print(f"[debug] getting weather for {city}")
44-
return f"The weather in {city} is sunny."
45-
46-
47-
async def main(model: str, api_key: str):
48-
agent = Agent(
49-
name="Assistant",
50-
instructions="You only respond in haikus.",
51-
model=LitellmModel(model=model, api_key=api_key),
52-
tools=[get_weather],
53-
)
54-
55-
result = await Runner.run(agent, "What's the weather in Tokyo?")
56-
print(result.final_output)
57-
58-
59-
if __name__ == "__main__":
60-
# First try to get model/api key from args
61-
import argparse
62-
63-
parser = argparse.ArgumentParser()
64-
parser.add_argument("--model", type=str, required=False)
65-
parser.add_argument("--api-key", type=str, required=False)
66-
args = parser.parse_args()
67-
68-
model = args.model
69-
if not model:
70-
model = input("Enter a model name for Litellm: ")
71-
72-
api_key = args.api_key
73-
if not api_key:
74-
api_key = input("Enter an API key for Litellm: ")
75-
76-
asyncio.run(main(model, api_key))
77-
```
78-
79-
## 使用状況データの追跡
80-
81-
LiteLLM のレスポンスを Agents SDK の使用状況メトリクスに反映させたい場合は、エージェント作成時に `ModelSettings(include_usage=True)` を渡してください。
82-
83-
```python
84-
from agents import Agent, ModelSettings
85-
from agents.extensions.models.litellm_model import LitellmModel
86-
87-
agent = Agent(
88-
name="Assistant",
89-
model=LitellmModel(model="your/model", api_key="..."),
90-
model_settings=ModelSettings(include_usage=True),
91-
)
92-
```
93-
94-
`include_usage=True` の場合、LiteLLM のリクエストは、組み込みの OpenAI モデルと同様に、`result.context_wrapper.usage` を通じてトークン数およびリクエスト数をレポートします。
95-
96-
## トラブルシューティング
97-
98-
LiteLLM のレスポンスで Pydantic シリアライザーの警告が表示される場合は、次を設定して小さな互換性パッチを有効にしてください。
99-
100-
```bash
101-
export OPENAI_AGENTS_ENABLE_LITELLM_SERIALIZER_PATCH=true
102-
```
103-
104-
このオプトインのフラグは、既知の LiteLLM シリアライザー警告を抑制しつつ通常の動作を維持します。不要な場合はオフにしてください(未設定または `false`)。
13+
自動的にリダイレクトされない場合は、上記のリンクを使用してください。

docs/ja/usage.md

Lines changed: 14 additions & 14 deletions
Original file line numberDiff line numberDiff line change
@@ -4,22 +4,22 @@ search:
44
---
55
# 使用方法
66

7-
Agents SDK は、すべての実行におけるトークン使用量を自動的に追跡します。実行コンテキストからアクセスでき、コスト監視、制限の適用、分析記録に利用できます。
7+
Agents SDK は、実行ごとのトークン使用量を自動的に追跡します。実行コンテキストからアクセスでき、コスト監視、制限の適用、分析記録に利用できます。
88

99
## 追跡対象
1010

1111
- **requests**: 実行された LLM API 呼び出し回数
1212
- **input_tokens**: 送信された入力トークン総数
1313
- **output_tokens**: 受信した出力トークン総数
1414
- **total_tokens**: 入力 + 出力
15-
- **request_usage_entries**: リクエストごとの使用量内訳のリスト
15+
- **request_usage_entries**: リクエストごとの使用量内訳の一覧
1616
- **details**:
1717
- `input_tokens_details.cached_tokens`
1818
- `output_tokens_details.reasoning_tokens`
1919

20-
## 実行から使用量にアクセスする方法
20+
## 実行からの使用量へのアクセス
2121

22-
`Runner.run(...)` の後、`result.context_wrapper.usage` から使用量にアクセスします
22+
`Runner.run(...)` の後、`result.context_wrapper.usage` で使用量にアクセスします
2323

2424
```python
2525
result = await Runner.run(agent, "What's the weather in Tokyo?")
@@ -33,9 +33,9 @@ print("Total tokens:", usage.total_tokens)
3333

3434
使用量は、実行中のすべてのモデル呼び出し(ツール呼び出しとハンドオフを含む)で集計されます。
3535

36-
### LiteLLM モデルで使用量を有効化する方法
36+
### LiteLLM モデルでの使用量の有効化
3737

38-
LiteLLM プロバイダーは、デフォルトでは使用量メトリクスを報告しません。[`LitellmModel`](models/litellm.md) を使用している場合は、LiteLLM のレスポンスで `result.context_wrapper.usage` が埋まるように、エージェントに `ModelSettings(include_usage=True)` を渡してください。
38+
LiteLLM プロバイダーは、デフォルトでは使用量メトリクスを報告しません。[`LitellmModel`][agents.extensions.models.litellm_model.LitellmModel] を使用している場合は、LiteLLM のレスポンスが `result.context_wrapper.usage` を埋めるよう、エージェントに `ModelSettings(include_usage=True)` を渡してください。設定手順とコード例については、Models ガイドの [LiteLLM note](models/index.md#litellm) を参照してください
3939

4040
```python
4141
from agents import Agent, ModelSettings, Runner
@@ -53,7 +53,7 @@ print(result.context_wrapper.usage.total_tokens)
5353

5454
## リクエストごとの使用量追跡
5555

56-
SDK は、`request_usage_entries` 内で各 API リクエストの使用量を自動的に追跡します。これは、詳細なコスト計算やコンテキストウィンドウ消費量の監視に役立ちます
56+
SDK は、`request_usage_entries` 内の API リクエストごとの使用量を自動追跡します。これは詳細なコスト計算やコンテキストウィンドウ消費量の監視に有用です
5757

5858
```python
5959
result = await Runner.run(agent, "What's the weather in Tokyo?")
@@ -62,9 +62,9 @@ for i, request in enumerate(result.context_wrapper.usage.request_usage_entries):
6262
print(f"Request {i + 1}: {request.input_tokens} in, {request.output_tokens} out")
6363
```
6464

65-
## セッションで使用量にアクセスする方法
65+
## セッションでの使用量へのアクセス
6666

67-
`Session`(例: `SQLiteSession`)を使用する場合、`Runner.run(...)` の各呼び出しは、その特定の実行に対する使用量を返します。セッションはコンテキスト用に会話履歴を維持しますが、各実行の使用量は独立しています。
67+
`Session`(例: `SQLiteSession`)を使用する場合、`Runner.run(...)` の各呼び出しはその特定の実行に対する使用量を返します。セッションは文脈のために会話履歴を維持しますが、各実行の使用量は独立しています。
6868

6969
```python
7070
session = SQLiteSession("my_conversation")
@@ -76,11 +76,11 @@ second = await Runner.run(agent, "Can you elaborate?", session=session)
7676
print(second.context_wrapper.usage.total_tokens) # Usage for second run
7777
```
7878

79-
セッションは実行間で会話コンテキストを保持しますが、各 `Runner.run()` 呼び出しで返される使用量メトリクスは、その特定の実行のみを表す点に注意してください。セッションでは、以前のメッセージが各実行の入力として再投入される場合があり、その結果、後続ターンの入力トークン数に影響します。
79+
セッションは実行間で会話コンテキストを保持しますが、各 `Runner.run()` 呼び出しで返される使用量メトリクスは、その特定の実行のみを表します。セッションでは、前のメッセージが各実行の入力として再投入される場合があり、その結果、後続ターンの入力トークン数に影響します。
8080

81-
## フックで使用量を利用する方法
81+
## フックでの使用量の利用
8282

83-
`RunHooks` を使用している場合、各フックに渡される `context` オブジェクトには `usage` が含まれます。これにより、ライフサイクルの重要なタイミングで使用量をログ記録できます
83+
`RunHooks` を使用している場合、各フックに渡される `context` オブジェクトには `usage` が含まれます。これにより、ライフサイクルの重要なタイミングで使用量を記録できます
8484

8585
```python
8686
class MyHooks(RunHooks):
@@ -91,9 +91,9 @@ class MyHooks(RunHooks):
9191

9292
## API リファレンス
9393

94-
詳細な API ドキュメントは以下を参照してください
94+
詳細な API ドキュメントは次を参照してください
9595

9696
- [`Usage`][agents.usage.Usage] - 使用量追跡データ構造
9797
- [`RequestUsage`][agents.usage.RequestUsage] - リクエストごとの使用量詳細
9898
- [`RunContextWrapper`][agents.run.RunContextWrapper] - 実行コンテキストから使用量にアクセス
99-
- [`RunHooks`][agents.run.RunHooks] - 使用量追跡ライフサイクルにフックする
99+
- [`RunHooks`][agents.run.RunHooks] - 使用量追跡ライフサイクルへのフック

0 commit comments

Comments
 (0)