你好,我看到最近官方更新了Claude Opus 4.6在BIRD-dev上的测试分数,我想复现一下结果,最好使用的prompt跟官方测试时保持一致。 我在github仓库里找到了一个https://github.com/AlibabaResearch/DAMO-ConvAI/blob/main/bird/llm/src/gpt_request.py 他是官方使用的测试prompt吗?但感觉有点久远了(3年前),请问官方可以给我一个参考看看测试prompt是怎么写的吗?非常感谢 😀
你好,我看到最近官方更新了Claude Opus 4.6在BIRD-dev上的测试分数,我想复现一下结果,最好使用的prompt跟官方测试时保持一致。
我在github仓库里找到了一个https://github.com/AlibabaResearch/DAMO-ConvAI/blob/main/bird/llm/src/gpt_request.py
他是官方使用的测试prompt吗?但感觉有点久远了(3年前),请问官方可以给我一个参考看看测试prompt是怎么写的吗?非常感谢 😀