fine tune with QA and wikipedia dataset
Browse files- README.md +613 -236
- config.json +1 -1
- model.safetensors +1 -1
README.md
CHANGED
@@ -1,153 +1,583 @@
|
|
1 |
---
|
2 |
-
base_model:
|
3 |
datasets:
|
4 |
-
-
|
5 |
language:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
6 |
- en
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
7 |
- ne
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
8 |
library_name: sentence-transformers
|
9 |
metrics:
|
10 |
-
-
|
11 |
-
-
|
12 |
-
-
|
13 |
-
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
14 |
pipeline_tag: sentence-similarity
|
15 |
tags:
|
16 |
- sentence-transformers
|
17 |
- sentence-similarity
|
18 |
- feature-extraction
|
19 |
- generated_from_trainer
|
20 |
-
- dataset_size:
|
21 |
-
- loss:
|
22 |
widget:
|
23 |
-
- source_sentence:
|
24 |
-
|
25 |
-
|
|
|
26 |
sentences:
|
27 |
-
- '
|
28 |
-
आउँछ भन्ने तथ्याङ्क कसैसँग छैन।
|
29 |
|
30 |
-
|
31 |
-
- 'पछिल्लो समयमा बेलायतले ब्रिटिस – गोर्खा सेनामा कार्यरत भूपू सैनिकहरूलाई नागरिकता
|
32 |
-
दिने जनाएको छ।
|
33 |
|
34 |
-
|
35 |
-
- 'OUTDOOR SPACE: ढाकिएको दलान र डक।
|
36 |
|
37 |
-
|
38 |
-
- source_sentence: 'Gunakar Aryal, station manager of Madanpokhara FM, says preparations
|
39 |
-
are underway to construct a radio station building from this amount.
|
40 |
|
41 |
-
|
42 |
-
|
43 |
-
|
44 |
-
|
45 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
46 |
|
47 |
-
|
48 |
-
|
49 |
-
गर्ने तयारी भइरहेको बताउँछन्।
|
50 |
|
51 |
-
|
52 |
-
|
53 |
|
54 |
-
|
55 |
-
|
56 |
-
|
57 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
58 |
sentences:
|
59 |
-
- '
|
60 |
-
|
61 |
-
|
62 |
-
|
63 |
-
|
64 |
-
|
65 |
-
|
66 |
-
|
67 |
-
|
68 |
-
|
69 |
-
|
70 |
-
|
71 |
-
|
72 |
-
|
73 |
-
|
74 |
-
|
75 |
-
|
76 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
77 |
sentences:
|
78 |
-
-
|
|
|
|
|
|
|
79 |
|
80 |
-
|
81 |
-
- 'नीलो सूर्य बायोडिजेल शुद्ध तरकारी तेलबाट बनेको प्रिमियम जैविक इन्धनको प्रमुख
|
82 |
-
आपूर्तिकर्ता हो।
|
83 |
|
84 |
-
|
85 |
-
|
86 |
-
दरका विदेशी गीतका अडियो सीडी तथा भीसीडी पाइन थालेपछि त्यसको ठाडो असर नेपाली संगीत
|
87 |
-
बजारमा पर्र्न थालेको छ।
|
88 |
|
89 |
-
|
90 |
-
- source_sentence: '"This was very surprising to me," said UM Professor Michael Combi.
|
91 |
|
92 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
93 |
sentences:
|
94 |
-
- '
|
95 |
-
|
96 |
-
|
|
|
|
|
|
|
97 |
|
98 |
-
|
99 |
-
|
100 |
|
101 |
-
|
102 |
-
- 'ऐंसेलुखर्क – ३, नयाँ टोल, खोटाङ
|
103 |
|
104 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
105 |
model-index:
|
106 |
-
- name: SentenceTransformer based on
|
107 |
results:
|
108 |
- task:
|
109 |
-
type:
|
110 |
-
name:
|
111 |
dataset:
|
112 |
name: Unknown
|
113 |
type: unknown
|
114 |
metrics:
|
115 |
-
- type:
|
116 |
-
value:
|
117 |
-
name:
|
118 |
-
|
119 |
-
|
120 |
-
name:
|
121 |
-
|
122 |
-
|
123 |
-
|
124 |
-
|
125 |
-
|
126 |
-
|
127 |
-
|
128 |
-
|
129 |
-
|
130 |
-
|
131 |
-
|
132 |
-
|
133 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
134 |
---
|
135 |
|
136 |
-
# SentenceTransformer based on
|
137 |
|
138 |
-
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [
|
139 |
|
140 |
## Model Details
|
141 |
|
142 |
### Model Description
|
143 |
- **Model Type:** Sentence Transformer
|
144 |
-
- **Base model:** [
|
145 |
- **Maximum Sequence Length:** 256 tokens
|
146 |
- **Output Dimensionality:** 384 tokens
|
147 |
- **Similarity Function:** Cosine Similarity
|
148 |
- **Training Dataset:**
|
149 |
-
- [
|
150 |
-
- **Languages:** en, ne
|
151 |
<!-- - **License:** Unknown -->
|
152 |
|
153 |
### Model Sources
|
@@ -184,9 +614,9 @@ from sentence_transformers import SentenceTransformer
|
|
184 |
model = SentenceTransformer("jangedoo/all-MiniLM-L6-v2-nepali")
|
185 |
# Run inference
|
186 |
sentences = [
|
187 |
-
'
|
188 |
-
'
|
189 |
-
'
|
190 |
]
|
191 |
embeddings = model.encode(sentences)
|
192 |
print(embeddings.shape)
|
@@ -226,23 +656,29 @@ You can finetune this model on your own dataset.
|
|
226 |
|
227 |
### Metrics
|
228 |
|
229 |
-
####
|
230 |
-
|
231 |
-
* Evaluated with [<code>
|
232 |
-
|
233 |
-
| Metric
|
234 |
-
|
235 |
-
|
|
236 |
-
|
237 |
-
|
238 |
-
|
239 |
-
|
240 |
-
|
241 |
-
|
|
242 |
-
|
243 |
-
|
|
244 |
-
|
|
245 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
246 |
|
247 |
<!--
|
248 |
## Bias, Risks and Limitations
|
@@ -260,57 +696,66 @@ You can finetune this model on your own dataset.
|
|
260 |
|
261 |
### Training Dataset
|
262 |
|
263 |
-
####
|
264 |
|
265 |
-
* Dataset: [
|
266 |
-
* Size:
|
267 |
-
* Columns: <code>
|
268 |
* Approximate statistics based on the first 1000 samples:
|
269 |
-
| |
|
270 |
-
|
271 |
-
| type | string | string
|
272 |
-
| details | <ul><li>min: 3 tokens</li><li>mean:
|
273 |
* Samples:
|
274 |
-
|
|
275 |
-
|
276 |
-
| <code
|
277 |
-
| <code>
|
278 |
-
| <code>
|
279 |
-
* Loss: [<code>
|
|
|
|
|
|
|
|
|
|
|
|
|
280 |
|
281 |
### Evaluation Dataset
|
282 |
|
283 |
-
####
|
284 |
|
285 |
-
* Dataset: [
|
286 |
-
* Size:
|
287 |
-
* Columns: <code>
|
288 |
* Approximate statistics based on the first 1000 samples:
|
289 |
-
| |
|
290 |
-
|
291 |
-
| type | string
|
292 |
-
| details | <ul><li>min:
|
293 |
* Samples:
|
294 |
-
|
|
295 |
-
|
296 |
-
| <code
|
297 |
-
| <code
|
298 |
-
| <code
|
299 |
-
* Loss: [<code>
|
|
|
|
|
|
|
|
|
|
|
|
|
300 |
|
301 |
### Training Hyperparameters
|
302 |
#### Non-Default Hyperparameters
|
303 |
|
304 |
- `eval_strategy`: steps
|
305 |
-
- `per_device_train_batch_size`:
|
306 |
-
- `per_device_eval_batch_size`:
|
307 |
- `learning_rate`: 2e-05
|
308 |
-
- `num_train_epochs`:
|
309 |
- `warmup_ratio`: 0.1
|
310 |
- `bf16`: True
|
311 |
-
- `push_to_hub`: True
|
312 |
-
- `hub_model_id`: jangedoo/all-MiniLM-L6-v2-nepali
|
313 |
-
- `push_to_hub_model_id`: all-MiniLM-L6-v2-nepali
|
314 |
|
315 |
#### All Hyperparameters
|
316 |
<details><summary>Click to expand</summary>
|
@@ -319,8 +764,8 @@ You can finetune this model on your own dataset.
|
|
319 |
- `do_predict`: False
|
320 |
- `eval_strategy`: steps
|
321 |
- `prediction_loss_only`: True
|
322 |
-
- `per_device_train_batch_size`:
|
323 |
-
- `per_device_eval_batch_size`:
|
324 |
- `per_gpu_train_batch_size`: None
|
325 |
- `per_gpu_eval_batch_size`: None
|
326 |
- `gradient_accumulation_steps`: 1
|
@@ -332,7 +777,7 @@ You can finetune this model on your own dataset.
|
|
332 |
- `adam_beta2`: 0.999
|
333 |
- `adam_epsilon`: 1e-08
|
334 |
- `max_grad_norm`: 1.0
|
335 |
-
- `num_train_epochs`:
|
336 |
- `max_steps`: -1
|
337 |
- `lr_scheduler_type`: linear
|
338 |
- `lr_scheduler_kwargs`: {}
|
@@ -393,9 +838,9 @@ You can finetune this model on your own dataset.
|
|
393 |
- `dataloader_persistent_workers`: False
|
394 |
- `skip_memory_metrics`: True
|
395 |
- `use_legacy_prediction_loop`: False
|
396 |
-
- `push_to_hub`:
|
397 |
- `resume_from_checkpoint`: None
|
398 |
-
- `hub_model_id`:
|
399 |
- `hub_strategy`: every_save
|
400 |
- `hub_private_repo`: False
|
401 |
- `hub_always_push`: False
|
@@ -404,7 +849,7 @@ You can finetune this model on your own dataset.
|
|
404 |
- `include_inputs_for_metrics`: False
|
405 |
- `eval_do_concat_batches`: True
|
406 |
- `fp16_backend`: auto
|
407 |
-
- `push_to_hub_model_id`:
|
408 |
- `push_to_hub_organization`: None
|
409 |
- `mp_parameters`:
|
410 |
- `auto_find_batch_size`: False
|
@@ -430,70 +875,15 @@ You can finetune this model on your own dataset.
|
|
430 |
</details>
|
431 |
|
432 |
### Training Logs
|
433 |
-
| Epoch | Step
|
434 |
-
|
435 |
-
| 0.
|
436 |
-
| 0.
|
437 |
-
| 0.
|
438 |
-
| 0.
|
439 |
-
| 0.
|
440 |
-
| 0.
|
441 |
-
| 0
|
442 |
-
| 0.64 | 8000 | 0.0017 | 0.0016 | 0.0973 | -0.3057 |
|
443 |
-
| 0.72 | 9000 | 0.0017 | 0.0015 | 0.1307 | -0.2964 |
|
444 |
-
| 0.8 | 10000 | 0.0016 | 0.0015 | 0.1672 | -0.2882 |
|
445 |
-
| 0.88 | 11000 | 0.0016 | 0.0014 | 0.2049 | -0.2802 |
|
446 |
-
| 0.96 | 12000 | 0.0016 | 0.0014 | 0.2358 | -0.2752 |
|
447 |
-
| 1.04 | 13000 | 0.0015 | 0.0014 | 0.2631 | -0.2701 |
|
448 |
-
| 1.12 | 14000 | 0.0015 | 0.0014 | 0.2896 | -0.2650 |
|
449 |
-
| 1.2 | 15000 | 0.0015 | 0.0013 | 0.3191 | -0.2606 |
|
450 |
-
| 1.28 | 16000 | 0.0015 | 0.0013 | 0.3467 | -0.2570 |
|
451 |
-
| 1.3600 | 17000 | 0.0014 | 0.0013 | 0.3674 | -0.2536 |
|
452 |
-
| 1.44 | 18000 | 0.0014 | 0.0013 | 0.3868 | -0.2502 |
|
453 |
-
| 1.52 | 19000 | 0.0014 | 0.0013 | 0.4069 | -0.2475 |
|
454 |
-
| 1.6 | 20000 | 0.0014 | 0.0013 | 0.4235 | -0.2456 |
|
455 |
-
| 1.6800 | 21000 | 0.0014 | 0.0013 | 0.4397 | -0.2433 |
|
456 |
-
| 1.76 | 22000 | 0.0014 | 0.0012 | 0.4538 | -0.2410 |
|
457 |
-
| 1.8400 | 23000 | 0.0014 | 0.0012 | 0.4630 | -0.2392 |
|
458 |
-
| 1.92 | 24000 | 0.0014 | 0.0012 | 0.4798 | -0.2374 |
|
459 |
-
| 2.0 | 25000 | 0.0014 | 0.0012 | 0.4880 | -0.2354 |
|
460 |
-
| 2.08 | 26000 | 0.0013 | 0.0012 | 0.5018 | -0.2340 |
|
461 |
-
| 2.16 | 27000 | 0.0013 | 0.0012 | 0.5097 | -0.2324 |
|
462 |
-
| 2.24 | 28000 | 0.0013 | 0.0012 | 0.5199 | -0.2305 |
|
463 |
-
| 2.32 | 29000 | 0.0013 | 0.0012 | 0.5291 | -0.2292 |
|
464 |
-
| 2.4 | 30000 | 0.0013 | 0.0012 | 0.5373 | -0.2292 |
|
465 |
-
| 2.48 | 31000 | 0.0013 | 0.0012 | 0.5487 | -0.2271 |
|
466 |
-
| 2.56 | 32000 | 0.0013 | 0.0012 | 0.5543 | -0.2259 |
|
467 |
-
| 2.64 | 33000 | 0.0013 | 0.0012 | 0.5616 | -0.2249 |
|
468 |
-
| 2.7200 | 34000 | 0.0013 | 0.0012 | 0.5698 | -0.2236 |
|
469 |
-
| 2.8 | 35000 | 0.0013 | 0.0012 | 0.5779 | -0.2225 |
|
470 |
-
| 2.88 | 36000 | 0.0013 | 0.0012 | 0.5829 | -0.2218 |
|
471 |
-
| 2.96 | 37000 | 0.0013 | 0.0011 | 0.5893 | -0.2208 |
|
472 |
-
| 3.04 | 38000 | 0.0013 | 0.0011 | 0.5947 | -0.2202 |
|
473 |
-
| 3.12 | 39000 | 0.0013 | 0.0011 | 0.5986 | -0.2195 |
|
474 |
-
| 3.2 | 40000 | 0.0013 | 0.0011 | 0.6019 | -0.2183 |
|
475 |
-
| 3.2800 | 41000 | 0.0013 | 0.0011 | 0.6076 | -0.2177 |
|
476 |
-
| 3.36 | 42000 | 0.0013 | 0.0011 | 0.6112 | -0.2173 |
|
477 |
-
| 3.44 | 43000 | 0.0013 | 0.0011 | 0.6143 | -0.2166 |
|
478 |
-
| 3.52 | 44000 | 0.0012 | 0.0011 | 0.6178 | -0.2163 |
|
479 |
-
| 3.6 | 45000 | 0.0012 | 0.0011 | 0.6225 | -0.2153 |
|
480 |
-
| 3.68 | 46000 | 0.0012 | 0.0011 | 0.6232 | -0.2148 |
|
481 |
-
| 3.76 | 47000 | 0.0012 | 0.0011 | 0.6292 | -0.2142 |
|
482 |
-
| 3.84 | 48000 | 0.0012 | 0.0011 | 0.6317 | -0.2136 |
|
483 |
-
| 3.92 | 49000 | 0.0012 | 0.0011 | 0.6323 | -0.2135 |
|
484 |
-
| 4.0 | 50000 | 0.0012 | 0.0011 | 0.634 | -0.2134 |
|
485 |
-
| 4.08 | 51000 | 0.0012 | 0.0011 | 0.6362 | -0.2129 |
|
486 |
-
| 4.16 | 52000 | 0.0012 | 0.0011 | 0.6377 | -0.2126 |
|
487 |
-
| 4.24 | 53000 | 0.0012 | 0.0011 | 0.6379 | -0.2122 |
|
488 |
-
| 4.32 | 54000 | 0.0012 | 0.0011 | 0.6413 | -0.2118 |
|
489 |
-
| 4.4 | 55000 | 0.0012 | 0.0011 | 0.6425 | -0.2117 |
|
490 |
-
| 4.48 | 56000 | 0.0012 | 0.0011 | 0.6425 | -0.2115 |
|
491 |
-
| 4.5600 | 57000 | 0.0012 | 0.0011 | 0.6454 | -0.2114 |
|
492 |
-
| 4.64 | 58000 | 0.0012 | 0.0011 | 0.6440 | -0.2112 |
|
493 |
-
| 4.72 | 59000 | 0.0012 | 0.0011 | 0.6463 | -0.2110 |
|
494 |
-
| 4.8 | 60000 | 0.0012 | 0.0011 | 0.6466 | -0.2110 |
|
495 |
-
| 4.88 | 61000 | 0.0012 | 0.0011 | 0.6465 | -0.2109 |
|
496 |
-
| 4.96 | 62000 | 0.0012 | 0.0011 | 0.6481 | -0.2108 |
|
497 |
|
498 |
|
499 |
### Framework Versions
|
@@ -522,19 +912,6 @@ You can finetune this model on your own dataset.
|
|
522 |
}
|
523 |
```
|
524 |
|
525 |
-
#### MSELoss
|
526 |
-
```bibtex
|
527 |
-
@inproceedings{reimers-2020-multilingual-sentence-bert,
|
528 |
-
title = "Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation",
|
529 |
-
author = "Reimers, Nils and Gurevych, Iryna",
|
530 |
-
booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing",
|
531 |
-
month = "11",
|
532 |
-
year = "2020",
|
533 |
-
publisher = "Association for Computational Linguistics",
|
534 |
-
url = "https://arxiv.org/abs/2004.09813",
|
535 |
-
}
|
536 |
-
```
|
537 |
-
|
538 |
<!--
|
539 |
## Glossary
|
540 |
|
|
|
1 |
---
|
2 |
+
base_model: jangedoo/all-MiniLM-L6-v2-nepali
|
3 |
datasets:
|
4 |
+
- wikimedia/wikipedia
|
5 |
language:
|
6 |
+
- ab
|
7 |
+
- ace
|
8 |
+
- ady
|
9 |
+
- af
|
10 |
+
- alt
|
11 |
+
- am
|
12 |
+
- ami
|
13 |
+
- an
|
14 |
+
- ang
|
15 |
+
- anp
|
16 |
+
- ar
|
17 |
+
- arc
|
18 |
+
- ary
|
19 |
+
- arz
|
20 |
+
- as
|
21 |
+
- ast
|
22 |
+
- atj
|
23 |
+
- av
|
24 |
+
- avk
|
25 |
+
- awa
|
26 |
+
- ay
|
27 |
+
- az
|
28 |
+
- azb
|
29 |
+
- ba
|
30 |
+
- ban
|
31 |
+
- bar
|
32 |
+
- bbc
|
33 |
+
- bcl
|
34 |
+
- be
|
35 |
+
- bg
|
36 |
+
- bh
|
37 |
+
- bi
|
38 |
+
- bjn
|
39 |
+
- blk
|
40 |
+
- bm
|
41 |
+
- bn
|
42 |
+
- bo
|
43 |
+
- bpy
|
44 |
+
- br
|
45 |
+
- bs
|
46 |
+
- bug
|
47 |
+
- bxr
|
48 |
+
- ca
|
49 |
+
- cbk
|
50 |
+
- cdo
|
51 |
+
- ce
|
52 |
+
- ceb
|
53 |
+
- ch
|
54 |
+
- chr
|
55 |
+
- chy
|
56 |
+
- ckb
|
57 |
+
- co
|
58 |
+
- cr
|
59 |
+
- crh
|
60 |
+
- cs
|
61 |
+
- csb
|
62 |
+
- cu
|
63 |
+
- cv
|
64 |
+
- cy
|
65 |
+
- da
|
66 |
+
- dag
|
67 |
+
- de
|
68 |
+
- dga
|
69 |
+
- din
|
70 |
+
- diq
|
71 |
+
- dsb
|
72 |
+
- dty
|
73 |
+
- dv
|
74 |
+
- dz
|
75 |
+
- ee
|
76 |
+
- el
|
77 |
+
- eml
|
78 |
- en
|
79 |
+
- eo
|
80 |
+
- es
|
81 |
+
- et
|
82 |
+
- eu
|
83 |
+
- ext
|
84 |
+
- fa
|
85 |
+
- fat
|
86 |
+
- ff
|
87 |
+
- fi
|
88 |
+
- fj
|
89 |
+
- fo
|
90 |
+
- fon
|
91 |
+
- fr
|
92 |
+
- frp
|
93 |
+
- frr
|
94 |
+
- fur
|
95 |
+
- fy
|
96 |
+
- ga
|
97 |
+
- gag
|
98 |
+
- gan
|
99 |
+
- gcr
|
100 |
+
- gd
|
101 |
+
- gl
|
102 |
+
- glk
|
103 |
+
- gn
|
104 |
+
- gom
|
105 |
+
- gor
|
106 |
+
- got
|
107 |
+
- gpe
|
108 |
+
- gsw
|
109 |
+
- gu
|
110 |
+
- guc
|
111 |
+
- gur
|
112 |
+
- guw
|
113 |
+
- gv
|
114 |
+
- ha
|
115 |
+
- hak
|
116 |
+
- haw
|
117 |
+
- hbs
|
118 |
+
- he
|
119 |
+
- hi
|
120 |
+
- hif
|
121 |
+
- hr
|
122 |
+
- hsb
|
123 |
+
- ht
|
124 |
+
- hu
|
125 |
+
- hy
|
126 |
+
- hyw
|
127 |
+
- ia
|
128 |
+
- id
|
129 |
+
- ie
|
130 |
+
- ig
|
131 |
+
- ik
|
132 |
+
- ilo
|
133 |
+
- inh
|
134 |
+
- io
|
135 |
+
- is
|
136 |
+
- it
|
137 |
+
- iu
|
138 |
+
- ja
|
139 |
+
- jam
|
140 |
+
- jbo
|
141 |
+
- jv
|
142 |
+
- ka
|
143 |
+
- kaa
|
144 |
+
- kab
|
145 |
+
- kbd
|
146 |
+
- kbp
|
147 |
+
- kcg
|
148 |
+
- kg
|
149 |
+
- ki
|
150 |
+
- kk
|
151 |
+
- kl
|
152 |
+
- km
|
153 |
+
- kn
|
154 |
+
- ko
|
155 |
+
- koi
|
156 |
+
- krc
|
157 |
+
- ks
|
158 |
+
- ksh
|
159 |
+
- ku
|
160 |
+
- kv
|
161 |
+
- kw
|
162 |
+
- ky
|
163 |
+
- la
|
164 |
+
- lad
|
165 |
+
- lb
|
166 |
+
- lbe
|
167 |
+
- lez
|
168 |
+
- lfn
|
169 |
+
- lg
|
170 |
+
- li
|
171 |
+
- lij
|
172 |
+
- lld
|
173 |
+
- lmo
|
174 |
+
- ln
|
175 |
+
- lo
|
176 |
+
- lt
|
177 |
+
- ltg
|
178 |
+
- lv
|
179 |
+
- lzh
|
180 |
+
- mad
|
181 |
+
- mai
|
182 |
+
- map
|
183 |
+
- mdf
|
184 |
+
- mg
|
185 |
+
- mhr
|
186 |
+
- mi
|
187 |
+
- min
|
188 |
+
- mk
|
189 |
+
- ml
|
190 |
+
- mn
|
191 |
+
- mni
|
192 |
+
- mnw
|
193 |
+
- mr
|
194 |
+
- mrj
|
195 |
+
- ms
|
196 |
+
- mt
|
197 |
+
- mwl
|
198 |
+
- my
|
199 |
+
- myv
|
200 |
+
- mzn
|
201 |
+
- nah
|
202 |
+
- nan
|
203 |
+
- nap
|
204 |
+
- nds
|
205 |
- ne
|
206 |
+
- new
|
207 |
+
- nia
|
208 |
+
- nl
|
209 |
+
- nn
|
210 |
+
- 'no'
|
211 |
+
- nov
|
212 |
+
- nqo
|
213 |
+
- nrf
|
214 |
+
- nso
|
215 |
+
- nv
|
216 |
+
- ny
|
217 |
+
- oc
|
218 |
+
- olo
|
219 |
+
- om
|
220 |
+
- or
|
221 |
+
- os
|
222 |
+
- pa
|
223 |
+
- pag
|
224 |
+
- pam
|
225 |
+
- pap
|
226 |
+
- pcd
|
227 |
+
- pcm
|
228 |
+
- pdc
|
229 |
+
- pfl
|
230 |
+
- pi
|
231 |
+
- pih
|
232 |
+
- pl
|
233 |
+
- pms
|
234 |
+
- pnb
|
235 |
+
- pnt
|
236 |
+
- ps
|
237 |
+
- pt
|
238 |
+
- pwn
|
239 |
+
- qu
|
240 |
+
- rm
|
241 |
+
- rmy
|
242 |
+
- rn
|
243 |
+
- ro
|
244 |
+
- ru
|
245 |
+
- rue
|
246 |
+
- rup
|
247 |
+
- rw
|
248 |
+
- sa
|
249 |
+
- sah
|
250 |
+
- sat
|
251 |
+
- sc
|
252 |
+
- scn
|
253 |
+
- sco
|
254 |
+
- sd
|
255 |
+
- se
|
256 |
+
- sg
|
257 |
+
- sgs
|
258 |
+
- shi
|
259 |
+
- shn
|
260 |
+
- si
|
261 |
+
- sk
|
262 |
+
- skr
|
263 |
+
- sl
|
264 |
+
- sm
|
265 |
+
- smn
|
266 |
+
- sn
|
267 |
+
- so
|
268 |
+
- sq
|
269 |
+
- sr
|
270 |
+
- srn
|
271 |
+
- ss
|
272 |
+
- st
|
273 |
+
- stq
|
274 |
+
- su
|
275 |
+
- sv
|
276 |
+
- sw
|
277 |
+
- szl
|
278 |
+
- szy
|
279 |
+
- ta
|
280 |
+
- tay
|
281 |
+
- tcy
|
282 |
+
- te
|
283 |
+
- tet
|
284 |
+
- tg
|
285 |
+
- th
|
286 |
+
- ti
|
287 |
+
- tk
|
288 |
+
- tl
|
289 |
+
- tly
|
290 |
+
- tn
|
291 |
+
- to
|
292 |
+
- tpi
|
293 |
+
- tr
|
294 |
+
- trv
|
295 |
+
- ts
|
296 |
+
- tt
|
297 |
+
- tum
|
298 |
+
- tw
|
299 |
+
- ty
|
300 |
+
- tyv
|
301 |
+
- udm
|
302 |
+
- ug
|
303 |
+
- uk
|
304 |
+
- ur
|
305 |
+
- uz
|
306 |
+
- ve
|
307 |
+
- vec
|
308 |
+
- vep
|
309 |
+
- vi
|
310 |
+
- vls
|
311 |
+
- vo
|
312 |
+
- vro
|
313 |
+
- wa
|
314 |
+
- war
|
315 |
+
- wo
|
316 |
+
- wuu
|
317 |
+
- xal
|
318 |
+
- xh
|
319 |
+
- xmf
|
320 |
+
- yi
|
321 |
+
- yo
|
322 |
+
- yue
|
323 |
+
- za
|
324 |
+
- zea
|
325 |
+
- zgh
|
326 |
+
- zh
|
327 |
+
- zu
|
328 |
library_name: sentence-transformers
|
329 |
metrics:
|
330 |
+
- cosine_accuracy@1
|
331 |
+
- cosine_accuracy@3
|
332 |
+
- cosine_accuracy@5
|
333 |
+
- cosine_accuracy@10
|
334 |
+
- cosine_precision@1
|
335 |
+
- cosine_precision@3
|
336 |
+
- cosine_precision@5
|
337 |
+
- cosine_precision@10
|
338 |
+
- cosine_recall@1
|
339 |
+
- cosine_recall@3
|
340 |
+
- cosine_recall@5
|
341 |
+
- cosine_recall@10
|
342 |
+
- cosine_ndcg@10
|
343 |
+
- cosine_mrr@10
|
344 |
+
- cosine_mrr@20
|
345 |
+
- cosine_mrr@50
|
346 |
+
- cosine_map@100
|
347 |
pipeline_tag: sentence-similarity
|
348 |
tags:
|
349 |
- sentence-transformers
|
350 |
- sentence-similarity
|
351 |
- feature-extraction
|
352 |
- generated_from_trainer
|
353 |
+
- dataset_size:50049
|
354 |
+
- loss:MultipleNegativesSymmetricRankingLoss
|
355 |
widget:
|
356 |
+
- source_sentence: मैले मेरो तल्लो बायाँ पछाडि र पेटमा गम्भीर दुखाइको अनुभव गरिरहेको
|
357 |
+
छु। मैले 20 वर्ष पहिले मेरो दाईलाई मेरो देब्रे मृगौला दान गरें, त्यसैले मलाई यो
|
358 |
+
मृगौला संक्रमण हो जस्तो लाग्दैन। मेरो तल्लो बायाँ पेटको एक्स-रे र बिरालोको स्क्यान
|
359 |
+
फेरि स्पष्ट आयो, तर मेरो डाक्टरलाई अब के गर्ने थाहा छैन।
|
360 |
sentences:
|
361 |
+
- '- बाँझोपन धेरै कारण हुन सक्छ
|
|
|
362 |
|
363 |
+
- फलोपियन ट्युब खुल्ला हुनुको मतलब सधैं उर्वर हुनु होइन
|
|
|
|
|
364 |
|
365 |
+
- एउटा खुला र स्वस्थ ट्यूबले गर्भधारणको सम्भावना बढाउँछ
|
|
|
366 |
|
367 |
+
- अन्य बांझपन कारणहरू अस्वीकार गर्न परीक्षणहरूको लागि स्त्री रोग विशेषज्ञ खोज्नुहोस्
|
|
|
|
|
368 |
|
369 |
+
- अप्रभावी यौन सम्पर्क वा हार्मोनल समस्याहरू जस्ता कारकहरूले प्रजनन क्षमतालाई
|
370 |
+
असर गर्न सक्छ
|
371 |
+
|
372 |
+
- यौनसम्पर्क पछि मोहम्मदको स्थितिमा सुत्दा एन्टभर्टेड गर्भाशय ग्रीवालाई मद्दत
|
373 |
+
गर्न सकिन्छ
|
374 |
+
|
375 |
+
- प्रजनन क्षमता सुधार गर्न अन्तर्निहित मुद्दाहरूलाई सम्बोधन गर्नु महत्त्वपूर्ण
|
376 |
+
छ।'
|
377 |
+
- 'तपाईंको चिन्तालाई सम्बोधन गर्न, यहाँ केहि सुझावहरू छन्:
|
378 |
+
|
379 |
+
|
380 |
+
1. यूरिया र क्रिएटिनिन स्तरहरू मापनको साथसाथै, पूर्ण पिसाब जाँच गराउने बारे विचार
|
381 |
+
गर्नुहोस्।
|
382 |
|
383 |
+
2. केही मृगौला दाताहरूले समयको साथमा मृगौलाको कार्यक्षमतामा गिरावटको अनुभव गर्न
|
384 |
+
सक्छन् र भविष्यमा डायलासिस आवश्यक हुन सक्छ।
|
|
|
385 |
|
386 |
+
3. तपाईको मिर्गौलाको स्वास्थ्यको मूल्याङ्कन गर्नु महत्त्वपूर्ण छ, यदि तपाई अहिले
|
387 |
+
स्वस्थ महसुस गर्नुहुन्छ भने।
|
388 |
|
389 |
+
4. पिसाब नलीको संक्रमणले गर्दा पनि दुखाइ हुन सक्छ, जसलाई पिसाब संस्कृति/संवेदनशीलता
|
390 |
+
परीक्षण पछि एन्टिबायोटिकले सजिलै उपचार गर्न सकिन्छ।
|
391 |
+
|
392 |
+
5. आवश्यक निदान परीक्षणहरू गराउन र रिपोर्टहरू स्वास्थ्य सेवा पेशेवर वा च्याट प्लेटफर्म
|
393 |
+
मार्फत साझेदारी गर्न सिफारिस गरिन्छ।
|
394 |
+
|
395 |
+
6. वैकल्पिक रूपमा, तपाईं थप मार्गदर्शनको लागि आफ्नो पारिवारिक चिकित्सकसँग परामर्श
|
396 |
+
गर्न सक्नुहुन्छ।
|
397 |
+
|
398 |
+
7. तपाईलाई शुभकामना र आशा छ कि तपाईको चिन्ता सन्तोषजनक रूपमा सम्बोधन गरिएको छ।'
|
399 |
+
- पलक जैन एक भारतीय अभिनेत्री हुन्, उनले धेरै टेली चलचित्रहरूमा कार्य गरी सकेकी
|
400 |
+
छिन्। इतना करो ना मुझे प्यार, कहीं किसी रोज, दो हंसों का जोडा, दी बड्डी प्रोजेक्ट,
|
401 |
+
क्राइम पेट्रोल आदिमा उनीले कार्य गरेकी छिन् । उनीले छ वर्षको उमेरबाट अभिनयको
|
402 |
+
थालनी गरिन् ।
|
403 |
+
- source_sentence: के म मेरो अनुहारमा पिम्पल र दागहरू हटाउन मेलाग्लो जेल प्रयोग गर्न
|
404 |
+
सक्छु? मलाई धेरै वर्षदेखि निचोल्ने र छेक्ने लत लागेको छ, र अब म मेरो जीवनमा कम्तिमा
|
405 |
+
एक पटक स्पष्ट अनुहार पाउन चाहन्छु। म गोरो छाला भएको ४२ वर्षीया महिला हुँ।
|
406 |
sentences:
|
407 |
+
- '- छालाको चिन्ताको उपचार गर्न ग्लाइकोलिक एसिड वा सेलिसिलिक एसिड फेसवाश प्रयोग
|
408 |
+
गर्नुहोस्
|
409 |
+
|
410 |
+
- ब्ल्याकहेड्स निचोड वा छनोट नगर्नुहोस्, किनकि यसले दाग र पिग्मेन्टेसन निम्त्याउन
|
411 |
+
सक्छ
|
412 |
+
|
413 |
+
- पिम्पलको लागि क्लिन्डामाइसिन जेल र रेटिन-ए क्रिम प्रयोग गर्नुहोस्
|
414 |
+
|
415 |
+
- पिग्मेन्टेसन चिन्हहरूको लागि कमिक एसिड क्रिम प्रयोग गर्नुहोस्
|
416 |
+
|
417 |
+
- गम्भीर मुँहासेको लागि छाला विशेषज्ञसँग परामर्श गर्नुहोस्
|
418 |
+
|
419 |
+
- गम्भीर मुँहासेको लागि मौखिक एन्टिबायोटिक वा आइसोट्रेटिनोइन लिने विचार गर्नुहोस्
|
420 |
+
|
421 |
+
- तपाइँको 40 को दशक मा मुँहासे को लागी हर्मोन चक्की को आवश्यकता हुन सक्छ
|
422 |
+
|
423 |
+
- रासायनिक बोक्राले दाग, पिग्मेन्टेसन, र सक्रिय मुँहासे घावहरूमा मद्दत गर्न सक्छ
|
424 |
+
|
425 |
+
- थप उपचार विकल्पहरूको लागि छाला विशेषज्ञसँग भेटघाट गर्नुहोस्।'
|
426 |
+
- "इन्द्र कुमार गुजराल (जन्म ४ डिसेम्बर स.न्. १९१९) भारतका पूर्व प्रधानमन्त्री थिए\
|
427 |
+
\ । \n\nसन्दर्भ सामग्रीहरू\n\nयी पनि हेर्नुहोस्\n\nभारतीय राजनीतिज्ञहरू\nभारतका\
|
428 |
+
\ प्रधानमन्त्रीहरू\nभारतीय नेताहरू\nसन् २०१२ मा मृत्यु\nभारतीय हिन्दुहरू"
|
429 |
+
- '- यो उमेर समूहका लागि Piriton प्रयोग गर्नु हुँदैन।
|
430 |
+
|
431 |
+
- बालबालिकामा रुघाखोकी र रुघाखोकी सामान्यतया भाइरसको कारणले हुन्छ ।
|
432 |
+
|
433 |
+
- चिसो लक्षणहरूको लागि, तपाइँ सेटिरिजिन जस्ता एन्टि-एलर्जी औषधिहरू प्रयोग गर्न
|
434 |
+
सक्नुहुन्छ।
|
435 |
+
|
436 |
+
- नुनिलो नाक डिकन्जेस्टेन्टले भरिएको नाकमा मद्दत गर्न सक्छ।
|
437 |
+
|
438 |
+
- ज्वरोको लागि पारासिटामोल दिन सकिन्छ, तर यदि यो 100F माथि छ भने मात्र।
|
439 |
+
|
440 |
+
- ज्वरोको लागि संयोजन औषधिहरू प्रयोग नगर्नुहोस्, विशेष गरी पारासिटामोलको साथ।
|
441 |
+
|
442 |
+
- Cetirizine चिसो लक्षणहरूको लागि 0.25 mg/kg प्रत्येक 12 घण्टामा 3 दिनको लागि
|
443 |
+
प्रयोग गर्न सकिन्छ।
|
444 |
+
|
445 |
+
- सादा सलाइन नाक ड्रप नाक अवरोध को लागी प्रयोग गर्न सकिन्छ।'
|
446 |
+
- source_sentence: बेलविछवा
|
447 |
sentences:
|
448 |
+
- सडकको नियमित मर्मतका लागि भनेर सरकारले विभिन्न सेवा र वस्तुमार्फत् अर्बौँ रुपैयाँ
|
449 |
+
कर उठाउँछ।
|
450 |
+
- '- तपाईंको ढाडमा गाँठहरू प्रायः कीराको टोकाइ वा ब्याक्टेरियाको संक्रमणको कारणले
|
451 |
+
हुन्छ, जसले फोकाहरू निम्त्याउन सक्छ।
|
452 |
|
453 |
+
– तपाईलाई हाइपो थाइराइड भएको हुनाले यो समस्यासँग सम्बन्धित हुन सक्छ ।
|
|
|
|
|
454 |
|
455 |
+
- म तपाईंलाई थप परीक्षण र उपयुक्त उपचारको लागि आपतकालीन कोठा (ER) डाक्टरसँग परामर्श
|
456 |
+
गर्न सल्लाह दिन्छु।
|
|
|
|
|
457 |
|
458 |
+
- चिन्ता नगर्नुहोस्, उचित हेरचाह गर्नाले गाँठो हट्नेछ।
|
|
|
459 |
|
460 |
+
- उपचारमा ओभर-द-काउन्टर दुखाइ निवारकहरू (NSAIDs) र एन्टिबायोटिकहरू समावेश हुन
|
461 |
+
सक्छ।
|
462 |
+
|
463 |
+
- भविष्यमा थप प्रश्नहरू सोध्न स्वतन्त्र महसुस गर्नुहोस्, र शुभ दिन।'
|
464 |
+
- "बेलविछवा रौतहट जिल्लाको एक गाउँ विकास समिति हो । \n\nसन्दर्भ सामग्रीहरू\n\nबाह्य\
|
465 |
+
\ कडीहरू"
|
466 |
+
- source_sentence: बीबीसी अनुसन्धानपछि नेपालमा चिम्पान्जी तस्कर पक्राउ
|
467 |
sentences:
|
468 |
+
- '- तपाईंले महसुस गर्नुभएको दुखाइ तपाईंको रिब पिंजरामा तानिएको मांसपेशीले गर्दा
|
469 |
+
भएको थियो।
|
470 |
+
|
471 |
+
- तपाईं यार्ड मा काम गर्दा यो भयो।
|
472 |
+
|
473 |
+
- यो सामान्य मांसपेशी र हड्डी दुखाइ भएकोले चिन्ता लिनु पर्दैन।
|
474 |
|
475 |
+
- कुनै पनि भारी शारीरिक गतिविधिहरू नगर्नुहोस् जसले तपाईंको माथिल्लो शरीरलाई तनाव
|
476 |
+
दिन्छ।
|
477 |
|
478 |
+
- सुत्दा बायाँ तिर सुत्नुहोस्।
|
|
|
479 |
|
480 |
+
- यदि दुखाइ फिर्ता आयो भने, तपाइँ एस्पिरिन वा आइबुप्रोफेन जस्ता साधारण दुखाइ निवारक
|
481 |
+
लिन सक्नुहुन्छ।
|
482 |
+
|
483 |
+
- यी चरणहरू पछ्याउँदा तपाईंलाई राम्रो महसुस गर्न मद्दत गर्नेछ।
|
484 |
+
|
485 |
+
- यदि तपाइँसँग कुनै थप चिन्ता छ भने, हामीसँग फेरि कुराकानी गर्न नहिचकिचाउनुहोस्।'
|
486 |
+
- चिम्पान्जी तस्करीबारे गत वर्ष बीबीसी अनुसन्धानबाट भएको खुलासाका आधारमा नेपाल प्रहरीले
|
487 |
+
सो सङ्कटापन्न वन्यजन्तु तस्करी गर्ने एउटा प्रयास विफल पारिदिएको छ।
|
488 |
+
- "छिन्दवाडा जिल्ला भारतीय राज्य मध्य प्रदेशको एउटा जिल्ला हो। \n\nयो पनि हेर्नुहोस्\n\
|
489 |
+
\nमध्य प्रदेश\nभारतका जिल्लाहरू\nमध्य प्रदेशका जिल्लाहरू"
|
490 |
+
- source_sentence: अर्थवेद
|
491 |
+
sentences:
|
492 |
+
- "अर्थवेद\nचार वेदका चार उपवेद मानिन्छ-\nधनुर्वेद, \nगान्धर्ववेद, \nआयुर्वेद, र\
|
493 |
+
\ \nअर्थवेद \nपं. धनराज शास्त्रीले अर्थवेदका चार ठूला र दुइ ाना ग्रन्थको उल्लेख\
|
494 |
+
\ गरेका छन्\n\nठूला ग्रन्थ\nचार ठूला ग्रन्थ यस प्रकार छन् \n १. अर्थोपवेद– यसको\
|
495 |
+
\ श्लोक संख्या एक लाख बताइएको छ । \n २.अर्थवेद– यसको श्लोक संख्या ३० हजार बताइएको\
|
496 |
+
\ छ । \n ३. अर्थ चन्द्रोदय– यसको श्लोक संख्या २० हजार बताइएको छ ।"
|
497 |
+
- वाच्य भनेको भनाइ हो । वाक्यमा रहेका कर्ता, कर्म र क्रियामध्ये कुन भनाइ मुख्य
|
498 |
+
रहेको छ भनी छुट्याउने व्याकरणिक कोटिलाई वाच्य भनिन्छ । अर्थात् कर्ता, कर्म र
|
499 |
+
भावको बोध गराउने वाक्यलाइ वाच्य भनिन्छ ।
|
500 |
+
- "डा. फेल, डिटेक्टिभ, एन्ड अदर स्टोरिज अमेरिकन उपन्यासकार तथा लेखक जोन डिक्सन कारद्वारा\
|
501 |
+
\ लिखित लघुकथा सङ्ग्रह हो । \n\nसन्दर्भ सूची\n\nलघुकथा संग्रहहरू\nपुस्तकहरू\n\
|
502 |
+
जोन डिक्सन कारका लघुकथा संग्रहहरू"
|
503 |
model-index:
|
504 |
+
- name: SentenceTransformer based on jangedoo/all-MiniLM-L6-v2-nepali
|
505 |
results:
|
506 |
- task:
|
507 |
+
type: information-retrieval
|
508 |
+
name: Information Retrieval
|
509 |
dataset:
|
510 |
name: Unknown
|
511 |
type: unknown
|
512 |
metrics:
|
513 |
+
- type: cosine_accuracy@1
|
514 |
+
value: 0.5404
|
515 |
+
name: Cosine Accuracy@1
|
516 |
+
- type: cosine_accuracy@3
|
517 |
+
value: 0.6196
|
518 |
+
name: Cosine Accuracy@3
|
519 |
+
- type: cosine_accuracy@5
|
520 |
+
value: 0.654
|
521 |
+
name: Cosine Accuracy@5
|
522 |
+
- type: cosine_accuracy@10
|
523 |
+
value: 0.6962
|
524 |
+
name: Cosine Accuracy@10
|
525 |
+
- type: cosine_precision@1
|
526 |
+
value: 0.5404
|
527 |
+
name: Cosine Precision@1
|
528 |
+
- type: cosine_precision@3
|
529 |
+
value: 0.2065333333333333
|
530 |
+
name: Cosine Precision@3
|
531 |
+
- type: cosine_precision@5
|
532 |
+
value: 0.1308
|
533 |
+
name: Cosine Precision@5
|
534 |
+
- type: cosine_precision@10
|
535 |
+
value: 0.06961999999999999
|
536 |
+
name: Cosine Precision@10
|
537 |
+
- type: cosine_recall@1
|
538 |
+
value: 0.5404
|
539 |
+
name: Cosine Recall@1
|
540 |
+
- type: cosine_recall@3
|
541 |
+
value: 0.6196
|
542 |
+
name: Cosine Recall@3
|
543 |
+
- type: cosine_recall@5
|
544 |
+
value: 0.654
|
545 |
+
name: Cosine Recall@5
|
546 |
+
- type: cosine_recall@10
|
547 |
+
value: 0.6962
|
548 |
+
name: Cosine Recall@10
|
549 |
+
- type: cosine_ndcg@10
|
550 |
+
value: 0.614560612378296
|
551 |
+
name: Cosine Ndcg@10
|
552 |
+
- type: cosine_mrr@10
|
553 |
+
value: 0.5888884126984126
|
554 |
+
name: Cosine Mrr@10
|
555 |
+
- type: cosine_mrr@20
|
556 |
+
value: 0.5918181110470189
|
557 |
+
name: Cosine Mrr@20
|
558 |
+
- type: cosine_mrr@50
|
559 |
+
value: 0.5937323352722809
|
560 |
+
name: Cosine Mrr@50
|
561 |
+
- type: cosine_map@100
|
562 |
+
value: 0.5943859310752522
|
563 |
+
name: Cosine Map@100
|
564 |
---
|
565 |
|
566 |
+
# SentenceTransformer based on jangedoo/all-MiniLM-L6-v2-nepali
|
567 |
|
568 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [jangedoo/all-MiniLM-L6-v2-nepali](https://huggingface.co/jangedoo/all-MiniLM-L6-v2-nepali) on the [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
569 |
|
570 |
## Model Details
|
571 |
|
572 |
### Model Description
|
573 |
- **Model Type:** Sentence Transformer
|
574 |
+
- **Base model:** [jangedoo/all-MiniLM-L6-v2-nepali](https://huggingface.co/jangedoo/all-MiniLM-L6-v2-nepali) <!-- at revision 85611e56d8d9eb7213de6a5049d99928688a5e98 -->
|
575 |
- **Maximum Sequence Length:** 256 tokens
|
576 |
- **Output Dimensionality:** 384 tokens
|
577 |
- **Similarity Function:** Cosine Similarity
|
578 |
- **Training Dataset:**
|
579 |
+
- [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia)
|
580 |
+
- **Languages:** ab, ace, ady, af, alt, am, ami, an, ang, anp, ar, arc, ary, arz, as, ast, atj, av, avk, awa, ay, az, azb, ba, ban, bar, bbc, bcl, be, bg, bh, bi, bjn, blk, bm, bn, bo, bpy, br, bs, bug, bxr, ca, cbk, cdo, ce, ceb, ch, chr, chy, ckb, co, cr, crh, cs, csb, cu, cv, cy, da, dag, de, dga, din, diq, dsb, dty, dv, dz, ee, el, eml, en, eo, es, et, eu, ext, fa, fat, ff, fi, fj, fo, fon, fr, frp, frr, fur, fy, ga, gag, gan, gcr, gd, gl, glk, gn, gom, gor, got, gpe, gsw, gu, guc, gur, guw, gv, ha, hak, haw, hbs, he, hi, hif, hr, hsb, ht, hu, hy, hyw, ia, id, ie, ig, ik, ilo, inh, io, is, it, iu, ja, jam, jbo, jv, ka, kaa, kab, kbd, kbp, kcg, kg, ki, kk, kl, km, kn, ko, koi, krc, ks, ksh, ku, kv, kw, ky, la, lad, lb, lbe, lez, lfn, lg, li, lij, lld, lmo, ln, lo, lt, ltg, lv, lzh, mad, mai, map, mdf, mg, mhr, mi, min, mk, ml, mn, mni, mnw, mr, mrj, ms, mt, mwl, my, myv, mzn, nah, nan, nap, nds, ne, new, nia, nl, nn, no, nov, nqo, nrf, nso, nv, ny, oc, olo, om, or, os, pa, pag, pam, pap, pcd, pcm, pdc, pfl, pi, pih, pl, pms, pnb, pnt, ps, pt, pwn, qu, rm, rmy, rn, ro, ru, rue, rup, rw, sa, sah, sat, sc, scn, sco, sd, se, sg, sgs, shi, shn, si, sk, skr, sl, sm, smn, sn, so, sq, sr, srn, ss, st, stq, su, sv, sw, szl, szy, ta, tay, tcy, te, tet, tg, th, ti, tk, tl, tly, tn, to, tpi, tr, trv, ts, tt, tum, tw, ty, tyv, udm, ug, uk, ur, uz, ve, vec, vep, vi, vls, vo, vro, wa, war, wo, wuu, xal, xh, xmf, yi, yo, yue, za, zea, zgh, zh, zu
|
581 |
<!-- - **License:** Unknown -->
|
582 |
|
583 |
### Model Sources
|
|
|
614 |
model = SentenceTransformer("jangedoo/all-MiniLM-L6-v2-nepali")
|
615 |
# Run inference
|
616 |
sentences = [
|
617 |
+
'अर्थवेद',
|
618 |
+
'अर्थवेद\nचार वेदका चार उपवेद मानिन्छ-\nधनुर्वेद, \nगान्धर्ववेद, \nआयुर्वेद, र \nअर्थवेद \nपं. धनराज शास्त्रीले अर्थवेदका चार ठूला र दुइ ाना ग्रन्थको उल्लेख गरेका छन्\n\nठूला ग्रन्थ\nचार ठूला ग्रन्थ यस प्रकार छन् \n १. अर्थोपवेद– यसको श्लोक संख्या एक लाख बताइएको छ । \n २.अर्थवेद– यसको श्लोक संख्या ३० हजार बताइएको छ । \n ३. अर्थ चन्द्रोदय– यसको श्लोक संख्या २० हजार बताइएको छ ।',
|
619 |
+
'डा. फेल, डिटेक्टिभ, एन्ड अदर स्टोरिज अमेरिकन उपन्यासकार तथा लेखक जोन डिक्सन कारद्वारा लिखित लघुकथा सङ्ग्रह हो । \n\nसन्दर्भ सूची\n\nलघुकथा संग्रहहरू\nपुस्तकहरू\nजोन डिक्सन कारका लघुकथा संग्रहहरू',
|
620 |
]
|
621 |
embeddings = model.encode(sentences)
|
622 |
print(embeddings.shape)
|
|
|
656 |
|
657 |
### Metrics
|
658 |
|
659 |
+
#### Information Retrieval
|
660 |
+
|
661 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
|
662 |
+
|
663 |
+
| Metric | Value |
|
664 |
+
|:--------------------|:-----------|
|
665 |
+
| cosine_accuracy@1 | 0.5404 |
|
666 |
+
| cosine_accuracy@3 | 0.6196 |
|
667 |
+
| cosine_accuracy@5 | 0.654 |
|
668 |
+
| cosine_accuracy@10 | 0.6962 |
|
669 |
+
| cosine_precision@1 | 0.5404 |
|
670 |
+
| cosine_precision@3 | 0.2065 |
|
671 |
+
| cosine_precision@5 | 0.1308 |
|
672 |
+
| cosine_precision@10 | 0.0696 |
|
673 |
+
| cosine_recall@1 | 0.5404 |
|
674 |
+
| cosine_recall@3 | 0.6196 |
|
675 |
+
| cosine_recall@5 | 0.654 |
|
676 |
+
| cosine_recall@10 | 0.6962 |
|
677 |
+
| cosine_ndcg@10 | 0.6146 |
|
678 |
+
| cosine_mrr@10 | 0.5889 |
|
679 |
+
| cosine_mrr@20 | 0.5918 |
|
680 |
+
| cosine_mrr@50 | 0.5937 |
|
681 |
+
| **cosine_map@100** | **0.5944** |
|
682 |
|
683 |
<!--
|
684 |
## Bias, Risks and Limitations
|
|
|
696 |
|
697 |
### Training Dataset
|
698 |
|
699 |
+
#### wikimedia/wikipedia
|
700 |
|
701 |
+
* Dataset: [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) at [b04c8d1](https://huggingface.co/datasets/wikimedia/wikipedia/tree/b04c8d1ceb2f5cd4588862100d08de323dccfbaa)
|
702 |
+
* Size: 50,049 training samples
|
703 |
+
* Columns: <code>anchor</code> and <code>positive</code>
|
704 |
* Approximate statistics based on the first 1000 samples:
|
705 |
+
| | anchor | positive |
|
706 |
+
|:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
707 |
+
| type | string | string |
|
708 |
+
| details | <ul><li>min: 3 tokens</li><li>mean: 49.45 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 17 tokens</li><li>mean: 166.52 tokens</li><li>max: 256 tokens</li></ul> |
|
709 |
* Samples:
|
710 |
+
| anchor | positive |
|
711 |
+
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
712 |
+
| <code>पहिलो पटक फेस वेक्सिङ गर्ने प्रयास गरेपछि मेरो गालामा दागहरू देखा परे। मेरो डाक्टरले clindac A जेल सिफारिस गर्नुभयो। के मेरो छाला निको हुन लामो समय लाग्छ वा केहि दिनमा यो राम्रो हुन सक्छ?</code> | <code>डाक्टरबाट सुझावहरू:<br><br>1. उचित परीक्षणको लागि छाला विशेषज्ञसँग परामर्श गर्नुहोस्।<br>2. वाक्सिङ पछि तपाईंको अनुहारमा दागहरू सम्पर्क डर्मेटाइटिस वा एलर्जी प्रतिक्रियाको कारण हुन सक्छ।<br>3. डाक्टरले एन्टिहिस्टामिन औषधि र कोर्टिकोस्टेरोइड मलम लेख्न सक्छ।<br>4. रातो दागहरू छुन वा चुम्बन नगर्नुहोस्।<br>5. अहिलेको लागि प्रत्यक्ष सूर्यको जोखिम र कस्मेटिक उत्पादनहरूबाट बच्नुहोस्।</code> |
|
713 |
+
| <code>विश्व व्यापार केन्द्र</code> | <code>वर्ल्ड ट्रेड सेन्टर न्यु योर्क सहरको मैनछटनमा बनेका दुई टावर रूपी भवनहरूको जोडी थियो, जसलाई आतंकवादी सङ्गठन अल कायदासंग सम्बन्धित आतंकवादिहरूले ११ सितंबर, २००१मा नष्ट गरिदिएका थिए। <br><br>मूल वर्ल्ड ट्रेड सेन्टर तल्लो मैनहट्टन, न्यु योर्क सिटी, संयुक्त राज्य अमेरिकामा मीलको पत्थर जुडुवा टावरहरूको विशेषता सात भवनहरुका साथ एक जटिल थियो। जटिल ४ अप्रिल, १९७३लाई खोला, र ११ सेप्टेम्बरका हमलाको समयमा २००१मा नष्ट गरेको थियो।</code> |
|
714 |
+
| <code>एम्बुलेन्स</code> | <code>एम्बुलेन्स बिरामी वा घाइते मान्छेलाई रोग वा चोट लागि उपचार गर्नको लागि अस्पताल सम्म पुर्याउन प्रयोग हुने सवारी साधन हो। <br><br>यो पनि हेर्नुहोस<br><br>सन्दर्भ सामग्रीहरू<br><br>बाह्य कडीहरू<br><br>आकस्मिक स्वास्थ्य सेवा<br>एम्बुलेन्स</code> |
|
715 |
+
* Loss: [<code>MultipleNegativesSymmetricRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativessymmetricrankingloss) with these parameters:
|
716 |
+
```json
|
717 |
+
{
|
718 |
+
"scale": 20.0,
|
719 |
+
"similarity_fct": "cos_sim"
|
720 |
+
}
|
721 |
+
```
|
722 |
|
723 |
### Evaluation Dataset
|
724 |
|
725 |
+
#### wikimedia/wikipedia
|
726 |
|
727 |
+
* Dataset: [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) at [b04c8d1](https://huggingface.co/datasets/wikimedia/wikipedia/tree/b04c8d1ceb2f5cd4588862100d08de323dccfbaa)
|
728 |
+
* Size: 3,000 evaluation samples
|
729 |
+
* Columns: <code>anchor</code> and <code>positive</code>
|
730 |
* Approximate statistics based on the first 1000 samples:
|
731 |
+
| | anchor | positive |
|
732 |
+
|:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
733 |
+
| type | string | string |
|
734 |
+
| details | <ul><li>min: 3 tokens</li><li>mean: 50.5 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 22 tokens</li><li>mean: 170.43 tokens</li><li>max: 256 tokens</li></ul> |
|
735 |
* Samples:
|
736 |
+
| anchor | positive |
|
737 |
+
|:--------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
738 |
+
| <code>जनसाङ्ख्यिकीय लाभांश</code> | <code>जनसाङ्ख्यिकीय लाभांश (Demographic dividend) अर्थ व्यवस्थामा मानव संसाधनका सकारात्मक र सतत विकासलाई दर्शाउँदछ। यो जनसङ्ख्या ढाँचामा बढदो युवा एवं कार्यशील जनसङ्ख्या (१५ वर्षदेखि ६४ वर्ष आयु वर्ग) तथा घट्तो आश्रितता अनुपातका परिणामस्वरूप उत्पादनमा ठूलो मात्राका सृजनलाई प्रदर्शित गर्दछ। यस स्थितिमा जनसङ्ख्या पिरामिड उल्टा बन्नेछ अर्थात यसमा कम जनसङ्ख्या आधार भन्दा माथि ठूलो जनसङ्ख्यातर्फ बढ्दछन्।</code> |
|
739 |
+
| <code>साडी गाविस</code> | <code>साडी गाविस नेपालको पश्चिमाञ्चल विकास क्षेत्रको लुम्बिनी अञ्चल, रूपन्देही जिल्लामा अवस्थित गाउँ विकास समिति हो । <br><br>रूपन्देही जिल्लाका ठाउँहरू</code> |
|
740 |
+
| <code>हेप सी र सिरोसिस भएको मेरो साथीले नाकबाट रगत बग्नेलाई गम्भीरतापूर्वक लिनु पर्छ र जेलमा विशेषज्ञलाई भेट्न माग गर्नु पर्छ?</code> | <code>– लिभर सिरोसिसले नाकबाट रगत बगाउन सक्छ<br>– सिरोसिसमा कलेजोले राम्रोसँग काम गर्दैन<br>- यसले कोगुलेसन कारकहरूको उत्पादनलाई असर गर्छ, जुन रगत जम्मा ग��्न जिम्मेवार हुन्छ<br>- फलस्वरूप, क्लोटिंग प्रणाली प्रभावित हुन्छ र नाक रगत हुन सक्छ<br>- तपाईंको साथीले उचित मूल्याङ्कन र उपचारको लागि डाक्टरसँग परामर्श गर्नुपर्छ<br>- केहि अवस्थामा, पोर्टल हाइपरटेन्सन व्यवस्थापन गर्न TIPS जस्ता शल्यक्रियाहरू वा बीटा ब्लकरहरू जस्तै औषधिहरू सिफारिस गर्न सकिन्छ।<br>- सिरोसिसको अन्तिम उपचार कलेजो प्रत्यारोपण हो<br>- यदि varices (अन्ननलीमा असामान्य नसहरू) बाट कुनै पनि रक्तस्राव भएमा, ब्यान्डिङ जस्ता प्रक्रियाहरूको लागि तत्काल चिकित्सा ध्यान आवश्यक छ।<br>- यो तपाईंको साथीसँग कुराकानी जारी राख्न र यस प्रक्रिया मार्फत तिनीहरूलाई समर्थन गर्न महत्त्वपूर्ण छ</code> |
|
741 |
+
* Loss: [<code>MultipleNegativesSymmetricRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativessymmetricrankingloss) with these parameters:
|
742 |
+
```json
|
743 |
+
{
|
744 |
+
"scale": 20.0,
|
745 |
+
"similarity_fct": "cos_sim"
|
746 |
+
}
|
747 |
+
```
|
748 |
|
749 |
### Training Hyperparameters
|
750 |
#### Non-Default Hyperparameters
|
751 |
|
752 |
- `eval_strategy`: steps
|
753 |
+
- `per_device_train_batch_size`: 128
|
754 |
+
- `per_device_eval_batch_size`: 128
|
755 |
- `learning_rate`: 2e-05
|
756 |
+
- `num_train_epochs`: 1
|
757 |
- `warmup_ratio`: 0.1
|
758 |
- `bf16`: True
|
|
|
|
|
|
|
759 |
|
760 |
#### All Hyperparameters
|
761 |
<details><summary>Click to expand</summary>
|
|
|
764 |
- `do_predict`: False
|
765 |
- `eval_strategy`: steps
|
766 |
- `prediction_loss_only`: True
|
767 |
+
- `per_device_train_batch_size`: 128
|
768 |
+
- `per_device_eval_batch_size`: 128
|
769 |
- `per_gpu_train_batch_size`: None
|
770 |
- `per_gpu_eval_batch_size`: None
|
771 |
- `gradient_accumulation_steps`: 1
|
|
|
777 |
- `adam_beta2`: 0.999
|
778 |
- `adam_epsilon`: 1e-08
|
779 |
- `max_grad_norm`: 1.0
|
780 |
+
- `num_train_epochs`: 1
|
781 |
- `max_steps`: -1
|
782 |
- `lr_scheduler_type`: linear
|
783 |
- `lr_scheduler_kwargs`: {}
|
|
|
838 |
- `dataloader_persistent_workers`: False
|
839 |
- `skip_memory_metrics`: True
|
840 |
- `use_legacy_prediction_loop`: False
|
841 |
+
- `push_to_hub`: False
|
842 |
- `resume_from_checkpoint`: None
|
843 |
+
- `hub_model_id`: None
|
844 |
- `hub_strategy`: every_save
|
845 |
- `hub_private_repo`: False
|
846 |
- `hub_always_push`: False
|
|
|
849 |
- `include_inputs_for_metrics`: False
|
850 |
- `eval_do_concat_batches`: True
|
851 |
- `fp16_backend`: auto
|
852 |
+
- `push_to_hub_model_id`: None
|
853 |
- `push_to_hub_organization`: None
|
854 |
- `mp_parameters`:
|
855 |
- `auto_find_batch_size`: False
|
|
|
875 |
</details>
|
876 |
|
877 |
### Training Logs
|
878 |
+
| Epoch | Step | Training Loss | loss | cosine_map@100 |
|
879 |
+
|:------:|:----:|:-------------:|:------:|:--------------:|
|
880 |
+
| 0.2551 | 100 | 2.2721 | 1.2990 | 0.5353 |
|
881 |
+
| 0.5102 | 200 | 1.3917 | 1.1731 | 0.5622 |
|
882 |
+
| 0.7653 | 300 | 1.3028 | 1.1260 | 0.5737 |
|
883 |
+
| 0.2551 | 100 | 1.1812 | 1.0509 | 0.5833 |
|
884 |
+
| 0.5102 | 200 | 1.148 | 1.0233 | 0.5883 |
|
885 |
+
| 0.7653 | 300 | 1.1278 | 1.0055 | 0.5937 |
|
886 |
+
| 1.0 | 392 | - | - | 0.5944 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
887 |
|
888 |
|
889 |
### Framework Versions
|
|
|
912 |
}
|
913 |
```
|
914 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
915 |
<!--
|
916 |
## Glossary
|
917 |
|
config.json
CHANGED
@@ -1,5 +1,5 @@
|
|
1 |
{
|
2 |
-
"_name_or_path": "
|
3 |
"architectures": [
|
4 |
"BertModel"
|
5 |
],
|
|
|
1 |
{
|
2 |
+
"_name_or_path": "./models/all-MiniLM-L6-v2-nepali-qa-finetune/final/",
|
3 |
"architectures": [
|
4 |
"BertModel"
|
5 |
],
|
model.safetensors
CHANGED
@@ -1,3 +1,3 @@
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
-
oid sha256:
|
3 |
size 90864192
|
|
|
1 |
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:5cc4dcd982892149aa687cc3b2be02dac6431707ce47421cc6149c1d08fd8f77
|
3 |
size 90864192
|