Update README.md
Browse files
README.md
CHANGED
@@ -29,7 +29,7 @@ This is the fine-tuned version of the Chinese BERT model on several similarity d
|
|
29 |
|
30 |
| 需求 Demand | 任务 Task | 系列 Series | 模型 Model | 参数 Parameter | 额外 Extra |
|
31 |
| :----: | :----: | :----: | :----: | :----: | :----: |
|
32 |
-
| 通用 General | 自然语言理解 NLU | 二郎神 Erlangshen | MegatronBert | 1.3B |
|
33 |
|
34 |
## 模型信息 Model Information
|
35 |
|
@@ -66,9 +66,27 @@ print(torch.nn.functional.softmax(output.logits,dim=-1))
|
|
66 |
|
67 |
## 引用 Citation
|
68 |
|
69 |
-
|
70 |
|
71 |
-
If you are using the resource for your work, please cite the our
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
72 |
|
73 |
```text
|
74 |
@article{fengshenbang,
|
|
|
29 |
|
30 |
| 需求 Demand | 任务 Task | 系列 Series | 模型 Model | 参数 Parameter | 额外 Extra |
|
31 |
| :----: | :----: | :----: | :----: | :----: | :----: |
|
32 |
+
| 通用 General | 自然语言理解 NLU | 二郎神 Erlangshen | MegatronBert | 1.3B | 相似度 Similarity |
|
33 |
|
34 |
## 模型信息 Model Information
|
35 |
|
|
|
66 |
|
67 |
## 引用 Citation
|
68 |
|
69 |
+
如果您在您的工作中使用了我们的模型,可以引用我们的对该模型的论文:
|
70 |
|
71 |
+
If you are using the resource for your work, please cite the our paper for this model:
|
72 |
+
|
73 |
+
```text
|
74 |
+
@article{fengshenbang/erlangshen-megatronbert-sim,
|
75 |
+
author = {Junjie Wang and
|
76 |
+
Yuxiang Zhang and
|
77 |
+
Ping Yang and
|
78 |
+
Ruyi Gan},
|
79 |
+
title = {Towards No.1 in {CLUE} Semantic Matching Challenge: Pre-trained Language
|
80 |
+
Model Erlangshen with Propensity-Corrected Loss},
|
81 |
+
journal = {CoRR},
|
82 |
+
volume = {abs/2208.02959},
|
83 |
+
year = {2022}
|
84 |
+
}
|
85 |
+
```
|
86 |
+
|
87 |
+
如果您在您的工作中使用了我们的模型,也可以引用我们的[总论文](https://arxiv.org/abs/2209.02970):
|
88 |
+
|
89 |
+
If you are using the resource for your work, please cite the our [overview paper](https://arxiv.org/abs/2209.02970):
|
90 |
|
91 |
```text
|
92 |
@article{fengshenbang,
|