Update README.md
Browse files
README.md
CHANGED
@@ -40,6 +40,13 @@ results = metric.compute(predictions=[translated_text], references=[[ground_trut
|
|
40 |
print(f"{results=}")
|
41 |
```
|
42 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
43 |
Note that we didn't provide `FastTokenizer` because we added special tokens and `FastTokenizer` will output `<UNK>` tokens. Please set `use_fast=False` when loading the tokenizer.
|
44 |
|
45 |
## Resources
|
|
|
40 |
print(f"{results=}")
|
41 |
```
|
42 |
|
43 |
+
The output should be:
|
44 |
+
```text
|
45 |
+
translated_text='841239 黄腾 认为 : “ 这 几 年 由于 一些 国家 在 增加 出口, 已经 把 中国 减少 的 出口量 补充 上来, 但是 并 没有 到 过剩 的 程度 。'
|
46 |
+
ground_truth='841239\t黄腾 认为 : “ 这 几 年 由于 一些 国家 在 增加 出口 , 已经 把 中国 减少 的 出口量 补充 上来 , 但是 并 没有 到 过剩 的 程度 。\n'
|
47 |
+
results={'score': 74.00206257221929, 'counts': [29, 25, 21, 17], 'totals': [32, 31, 30, 29], 'precisions': [90.625, 80.64516129032258, 70.0, 58.62068965517241], 'bp': 1.0, 'sys_len': 32, 'ref_len': 32}
|
48 |
+
```
|
49 |
+
|
50 |
Note that we didn't provide `FastTokenizer` because we added special tokens and `FastTokenizer` will output `<UNK>` tokens. Please set `use_fast=False` when loading the tokenizer.
|
51 |
|
52 |
## Resources
|