Update README.md
Browse files
README.md
CHANGED
@@ -170,11 +170,11 @@ HumanEval 是评估模型在代码生成方面性能的最常见的基准,尤
|
|
170 |
| 模型 | HumanEval python pass@1 |
|
171 |
| --- |----------------------------------------------------------------------------- |
|
172 |
| CodeLlama-7b-hf | 30.5%|
|
173 |
-
| opencsg-CodeLlama-7b-v0.1
|
174 |
| CodeLlama-13b-hf | 36.0%|
|
175 |
-
| opencsg-CodeLlama-13b-v0.1
|
176 |
| CodeLlama-34b-hf | 48.2%|
|
177 |
-
| opencsg-CodeLlama-34b-v0.1
|
178 |
|
179 |
**TODO**
|
180 |
- 未来我们将提供更多微调模型的在各基准上的分数。
|
|
|
170 |
| 模型 | HumanEval python pass@1 |
|
171 |
| --- |----------------------------------------------------------------------------- |
|
172 |
| CodeLlama-7b-hf | 30.5%|
|
173 |
+
| opencsg-CodeLlama-7b-v0.1| **43.9%** |
|
174 |
| CodeLlama-13b-hf | 36.0%|
|
175 |
+
| opencsg-CodeLlama-13b-v0.1 | **51.2%** |
|
176 |
| CodeLlama-34b-hf | 48.2%|
|
177 |
+
| opencsg-CodeLlama-34b-v0.1| **56.1%** |
|
178 |
|
179 |
**TODO**
|
180 |
- 未来我们将提供更多微调模型的在各基准上的分数。
|