Skip to content

Commit f8d96f4

Browse files
committed
update
1 parent f7d0cff commit f8d96f4

115 files changed

Lines changed: 6596 additions & 2125 deletions

File tree

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

.gitignore

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -20,3 +20,5 @@ temp.txt
2020
test_set
2121
tensor.pt
2222
__pycache__
23+
.DS_Store
24+
tests/code_library/code_case/minmode_code_case/paddle_code

README.md

Lines changed: 1 addition & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -19,9 +19,8 @@
1919

2020
使用 `-i` 指定输入目录,转换过程不会改动原目录,会将原目录中的文件一一转换到 `-o` 指定的输出目录中(如不指定,则默认为`./paddle_project`),转换时会尽量保持原代码的风格与结构不变。
2121

22-
## 安装使用
2322

24-
#### 1. 命令行用法
23+
## 安装使用
2524

2625
通过终端命令行的方式使用:
2726

@@ -44,15 +43,6 @@ paconvert -i torch_code_dir [-o paddle_code_dir] [-e exclude.py] [--log_dir log_
4443
--exclude_packages 可选,可以配置无需识别转换的torch包名,多个包名请使用逗号分隔。默认不配置。
4544
```
4645

47-
#### 2. IDE交互式用法
48-
49-
在 IDE 中使用,交互式界面更友好。
50-
51-
需要在`PyCharm``VS Code`等主流 IDE 中安装 **文心快码插件(Baidu Comate)** 后即可使用。以`VS Code`上使用为例:
52-
53-
![img](./images/comate_paconvert.jpeg)
54-
55-
5646
## 转换示例
5747

5848
以下面一个简单的 Pytorch Demo 代码为例:
@@ -222,7 +212,6 @@ ______ _____ _
222212
| Llama大模型 | https://github.com/meta-llama/llama.git | 推理 | [Llama](./docs/TypicalCase_Llama.md)|
223213
| Qwen大模型 | https://huggingface.co/Qwen/Qwen-7B-Chat | 推理 | [Qwen](./docs/TypicalCase_Qwen.md) |
224214

225-
226215
## 贡献代码
227216

228217
代码自动转换工具([PaConvert](https://github.com/PaddlePaddle/PaConvert))为开源贡献形式,欢迎向我们贡献代码,详细开发步骤请参考 [贡献代码教程](./docs/CONTRIBUTING.md)

paconvert/api_alias_mapping.json

Lines changed: 0 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -104,7 +104,6 @@
104104
"torch.functional.unique": "torch.unique",
105105
"torch.half": "torch.float16",
106106
"torch.hardshrink": "torch.nn.functional.hardshrink",
107-
"torch.i0": "torch.special.i0",
108107
"torch.igamma": "torch.special.gammainc",
109108
"torch.igammac": "torch.special.gammaincc",
110109
"torch.int": "torch.int32",

0 commit comments

Comments
 (0)