jangedoo commited on
Commit
b61e10b
·
verified ·
1 Parent(s): 85611e5

fine tune with QA and wikipedia dataset

Browse files
Files changed (3) hide show
  1. README.md +613 -236
  2. config.json +1 -1
  3. model.safetensors +1 -1
README.md CHANGED
@@ -1,153 +1,583 @@
1
  ---
2
- base_model: sentence-transformers/all-MiniLM-L6-v2
3
  datasets:
4
- - momo22/eng2nep
5
  language:
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6
  - en
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7
  - ne
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8
  library_name: sentence-transformers
9
  metrics:
10
- - negative_mse
11
- - src2trg_accuracy
12
- - trg2src_accuracy
13
- - mean_accuracy
 
 
 
 
 
 
 
 
 
 
 
 
 
14
  pipeline_tag: sentence-similarity
15
  tags:
16
  - sentence-transformers
17
  - sentence-similarity
18
  - feature-extraction
19
  - generated_from_trainer
20
- - dataset_size:800000
21
- - loss:MSELoss
22
  widget:
23
- - source_sentence: 'OUTDOOR SPACE: A covered porch and a deck.
24
-
25
- '
 
26
  sentences:
27
- - 'नेपालमा चीन भारतबाट अवैध रूपले प्रशस्तै प्लाष्टिकका सामानहरू आइरहे पनि के कति
28
- आउँछ भन्ने तथ्याङ्क कसैसँग छैन।
29
 
30
- '
31
- - 'पछिल्लो समयमा बेलायतले ब्रिटिस – गोर्खा सेनामा कार्यरत भूपू सैनिकहरूलाई नागरिकता
32
- दिने जनाएको छ।
33
 
34
- '
35
- - 'OUTDOOR SPACE: ढाकिएको दलान र डक।
36
 
37
- '
38
- - source_sentence: 'Gunakar Aryal, station manager of Madanpokhara FM, says preparations
39
- are underway to construct a radio station building from this amount.
40
 
41
- '
42
- sentences:
43
- - 'उक्त अवसरमा समितीका उपाध्यक्ष सहीद हवारी, कोषाध्यक्ष ईलियास अन्सारी, सचिव ताजमा
44
- खातुन, विश्वास सामुदायिक संस्थाका अध्यक्ष सुलेमान हवारी, युवा नेता रामकिसोर सिंह
45
- पराग लगायतको उपस्थिती रहेको थियो
 
 
 
 
 
 
 
 
46
 
47
- '
48
- - 'मदनपोखरा एफएमका स्टेशन मेनेजर गुणाकर अर्याल यो रकमबाट रेडियोको स्टेशन भवन निर्माण
49
- गर्ने तयारी भइरहेको बताउँछन्।
50
 
51
- '
52
- - 'एकपटक तिनीहरू माथि छन्, भण्डारले गृह पहुँचकर्ताहरूमा ठूलो छुट राखे।
53
 
54
- '
55
- - source_sentence: "I will stay here, because a good opportunity for a great and growing\
56
- \ work has been given to me now. And there are many people working against it.\
57
- \ \n"
 
 
 
 
 
 
 
 
 
 
 
 
 
58
  sentences:
59
- - 'राज्य विभागका प्रवक्ताले आफ्ना सबै कैदीहरूको भल्भकालागि FARC जिम्मेवार राखे
60
- भन्नुभयो "जीवनको प्रमाण होस्टहरूको निष्कासन सुरक्षित गर्न कुनै श्रेणी प्रयासका
61
- लागि आवश्यक र आवश्यक कदम हो।"
62
-
63
- '
64
- - "किनभने त्यहाँ प्रभावपूर्ण कार्यको एउटा विशाल मौका हात लाग्नेवाला छ। अनि धेरैजना\
65
- \ त्यस कार्यको विरोधमा पनि काम गर्दैछन्। \n"
66
- - '(८) यस नियम बमोजिम इजाजतपत्रवालाहरु गाभिएको सूचना उपनियम (४) बमोजिम इजाजतपत्र
67
- प्राप्त गर्ने संस्थाले राष्ट्रियस्तरको दैनिक पत्रिकामा प्रकाशन गर्नु पर्नेछ ।
68
- ९. इजाजतपत्र रद्द भएको जानकारी दिनु पर्नेः ऐनको दफा १३ बमोजिम इजाजतपत्र रद्द भएमा
69
- विभागले सोको जानकारी इजाजतपत्रवालालाई दिनु पर्नेछ
70
-
71
- '
72
- - source_sentence: 'Due to the fake, the audio CDs and VCDs of foreign songs at a
73
- very cheap rate in the open roads and markets of Marashyam Memorial Care have
74
- started to affect the Nepalese music market.
75
-
76
- '
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
77
  sentences:
78
- - 'दुवैजना गोदावरी घुमेर आएका थिए।
 
 
 
79
 
80
- '
81
- - 'नीलो सूर्य बायोडिजेल शुद्ध तरकारी तेलबाट बनेको प्रिमियम जैविक इन्धनको प्रमुख
82
- आपूर्तिकर्ता हो।
83
 
84
- '
85
- - 'नक्कलीले गर्दा सक्कलीलाई मारश्याम स्मृतराजधानीका खुला सडक र बजारमा अत्यन्त सस्तो
86
- दरका विदेशी गीतका अडियो सीडी तथा भीसीडी पाइन थालेपछि त्यसको ठाडो असर नेपाली संगीत
87
- बजारमा पर्र्न थालेको छ।
88
 
89
- '
90
- - source_sentence: '"This was very surprising to me," said UM Professor Michael Combi.
91
 
92
- '
 
 
 
 
 
 
93
  sentences:
94
- - '९) अनाजलाई भिजाएको भाँडोबाट निकालेर एक पटक सफा पानीले धोई चालनीजस्तो जालीदार
95
- भाँडोमा खन्याउनु पर्दछ र यसमा एक घण्टा जति राखी पानी पूरा तर्केपछि मोटो कपडामा
96
- बाँध्ने या मोटो कपडाको थैलोमा भरेर झुण्ड्याई दिने या कुनै भाँडामा राखी ���िने।
 
 
 
97
 
98
- '
99
- - '"यो मेरोलागि निकै आश्चर्यजनक थियो," युएम प्राध्यापक माइकल कम्बिले भन्नुभयो।
100
 
101
- '
102
- - 'ऐंसेलुखर्क – ३, नयाँ टोल, खोटाङ
103
 
104
- '
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
105
  model-index:
106
- - name: SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2
107
  results:
108
  - task:
109
- type: knowledge-distillation
110
- name: Knowledge Distillation
111
  dataset:
112
  name: Unknown
113
  type: unknown
114
  metrics:
115
- - type: negative_mse
116
- value: -0.21079338621348143
117
- name: Negative Mse
118
- - task:
119
- type: translation
120
- name: Translation
121
- dataset:
122
- name: Unknown
123
- type: unknown
124
- metrics:
125
- - type: src2trg_accuracy
126
- value: 0.7323
127
- name: Src2Trg Accuracy
128
- - type: trg2src_accuracy
129
- value: 0.5639
130
- name: Trg2Src Accuracy
131
- - type: mean_accuracy
132
- value: 0.6480999999999999
133
- name: Mean Accuracy
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
134
  ---
135
 
136
- # SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2
137
 
138
- This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) on the [momo22/eng2nep](https://huggingface.co/datasets/momo22/eng2nep) dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
139
 
140
  ## Model Details
141
 
142
  ### Model Description
143
  - **Model Type:** Sentence Transformer
144
- - **Base model:** [sentence-transformers/all-MiniLM-L6-v2](https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2) <!-- at revision 8b3219a92973c328a8e22fadcfa821b5dc75636a -->
145
  - **Maximum Sequence Length:** 256 tokens
146
  - **Output Dimensionality:** 384 tokens
147
  - **Similarity Function:** Cosine Similarity
148
  - **Training Dataset:**
149
- - [momo22/eng2nep](https://huggingface.co/datasets/momo22/eng2nep)
150
- - **Languages:** en, ne
151
  <!-- - **License:** Unknown -->
152
 
153
  ### Model Sources
@@ -184,9 +614,9 @@ from sentence_transformers import SentenceTransformer
184
  model = SentenceTransformer("jangedoo/all-MiniLM-L6-v2-nepali")
185
  # Run inference
186
  sentences = [
187
- '"This was very surprising to me," said UM Professor Michael Combi.\n',
188
- '"यो मेरोलागि निकै आश्चर्यजनक थियो," युएम प्राध्यापक माइकल कम्बिले भन्नुभयो।\n',
189
- 'ऐंसेलुखर्क ३, नयाँ टोल, खोटाङ\n',
190
  ]
191
  embeddings = model.encode(sentences)
192
  print(embeddings.shape)
@@ -226,23 +656,29 @@ You can finetune this model on your own dataset.
226
 
227
  ### Metrics
228
 
229
- #### Knowledge Distillation
230
-
231
- * Evaluated with [<code>MSEEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.MSEEvaluator)
232
-
233
- | Metric | Value |
234
- |:-----------------|:------------|
235
- | **negative_mse** | **-0.2108** |
236
-
237
- #### Translation
238
-
239
- * Evaluated with [<code>TranslationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TranslationEvaluator)
240
-
241
- | Metric | Value |
242
- |:------------------|:-----------|
243
- | src2trg_accuracy | 0.7323 |
244
- | trg2src_accuracy | 0.5639 |
245
- | **mean_accuracy** | **0.6481** |
 
 
 
 
 
 
246
 
247
  <!--
248
  ## Bias, Risks and Limitations
@@ -260,57 +696,66 @@ You can finetune this model on your own dataset.
260
 
261
  ### Training Dataset
262
 
263
- #### momo22/eng2nep
264
 
265
- * Dataset: [momo22/eng2nep](https://huggingface.co/datasets/momo22/eng2nep) at [57da8d4](https://huggingface.co/datasets/momo22/eng2nep/tree/57da8d44266896e334c1d8f2528cbbf666fbd0ca)
266
- * Size: 800,000 training samples
267
- * Columns: <code>English</code>, <code>Nepali</code>, and <code>label</code>
268
  * Approximate statistics based on the first 1000 samples:
269
- | | English | Nepali | label |
270
- |:--------|:-----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:-------------------------------------|
271
- | type | string | string | list |
272
- | details | <ul><li>min: 3 tokens</li><li>mean: 26.29 tokens</li><li>max: 130 tokens</li></ul> | <ul><li>min: 3 tokens</li><li>mean: 65.39 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>size: 384 elements</li></ul> |
273
  * Samples:
274
- | English | Nepali | label |
275
- |:------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------|
276
- | <code>But with the origin of feudal practices in the Middle Ages, the practice of untouchability began, as well as discrimination against women.<br></code> | <code>तर मध्ययुगमा सामन्ती प्रथाको उद्भव भएसँगै जसरी छुवाछुत प्रथाको शुरुवात भयो, त्यसैगरी नारी प्रति पनि विभेद गरिन थालियो<br></code> | <code>[-0.05432726442813873, 0.029996933415532112, -0.008532932959496975, -0.035200122743844986, 0.008856767788529396, ...]</code> |
277
- | <code>A Pandit was found on the way to Pokhara from Baglung.<br></code> | <code>वाग्लुङ्गबाट पोखरा आउँदा बाटोमा एकजना पण्डित भेटिए।<br></code> | <code>[-0.023763157427310944, 0.09590080380439758, -0.11197677254676819, 0.10978180170059204, -0.028137221932411194, ...]</code> |
278
- | <code>He went on: "She ate a perfectly normal and healthy diet.<br></code> | <code>उनी गए: "उनले पूर्ण सामान्य स्वस्थ आहार खाइन्।<br></code> | <code>[0.028130438178777695, 0.03038676083087921, -0.012276142835617065, 0.1316222846508026, -0.01928197592496872, ...]</code> |
279
- * Loss: [<code>MSELoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#mseloss)
 
 
 
 
 
 
280
 
281
  ### Evaluation Dataset
282
 
283
- #### momo22/eng2nep
284
 
285
- * Dataset: [momo22/eng2nep](https://huggingface.co/datasets/momo22/eng2nep) at [57da8d4](https://huggingface.co/datasets/momo22/eng2nep/tree/57da8d44266896e334c1d8f2528cbbf666fbd0ca)
286
- * Size: 8,000 evaluation samples
287
- * Columns: <code>English</code>, <code>Nepali</code>, and <code>label</code>
288
  * Approximate statistics based on the first 1000 samples:
289
- | | English | Nepali | label |
290
- |:--------|:-----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:-------------------------------------|
291
- | type | string | string | list |
292
- | details | <ul><li>min: 4 tokens</li><li>mean: 26.48 tokens</li><li>max: 213 tokens</li></ul> | <ul><li>min: 3 tokens</li><li>mean: 63.73 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>size: 384 elements</li></ul> |
293
  * Samples:
294
- | English | Nepali | label |
295
- |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------|
296
- | <code>Chapter 3<br></code> | <code>परिच्छेद–३<br></code> | <code>[-0.04945989325642586, 0.048675231635570526, 0.016583407297730446, 0.048761602491140366, -0.020754696801304817, ...]</code> |
297
- | <code>The capability of MOF would be strengthened to enable it to efficiently play the lead role in donor coordination, and to secure support from all stakeholders in aid coordination activities.<br></code> | <code>दाताहरूको समन्वयमा नेतृत्वदायीको भूमिका निर्वाह प्रभावकारी ढंगले गर्न अर्थ मन्त्रालयको क्षमता सुदृढ गरिनेछ यसको लागि सबै सरोकारवालाबाट समर्थन प्राप्त गरिनेछ ।<br></code> | <code>[-0.06200314313173294, -0.016507906839251518, -0.029924260452389717, -0.05250919610261917, 0.07746176421642303, ...]</code> |
298
- | <code>Polimatrix, Inc. is a system integrator and total solutions provider delivering radiation and nuclear protection and detection.<br></code> | <code>पोलिमाट्रिक्स, इन्कर्पोरेटिड प्रणाली इन्टिजरकुल समाधान प्रदायक रेडियो आणविक संरक्षणपत्ता लगाउने प्रणाली इन्टिजर कुल समाधान प्रदायक हो।<br></code> | <code>[-0.0446796789765358, 0.02642829343676567, -0.09837698936462402, -0.07765442132949829, -0.02036469243466854, ...]</code> |
299
- * Loss: [<code>MSELoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#mseloss)
 
 
 
 
 
 
300
 
301
  ### Training Hyperparameters
302
  #### Non-Default Hyperparameters
303
 
304
  - `eval_strategy`: steps
305
- - `per_device_train_batch_size`: 64
306
- - `per_device_eval_batch_size`: 64
307
  - `learning_rate`: 2e-05
308
- - `num_train_epochs`: 5
309
  - `warmup_ratio`: 0.1
310
  - `bf16`: True
311
- - `push_to_hub`: True
312
- - `hub_model_id`: jangedoo/all-MiniLM-L6-v2-nepali
313
- - `push_to_hub_model_id`: all-MiniLM-L6-v2-nepali
314
 
315
  #### All Hyperparameters
316
  <details><summary>Click to expand</summary>
@@ -319,8 +764,8 @@ You can finetune this model on your own dataset.
319
  - `do_predict`: False
320
  - `eval_strategy`: steps
321
  - `prediction_loss_only`: True
322
- - `per_device_train_batch_size`: 64
323
- - `per_device_eval_batch_size`: 64
324
  - `per_gpu_train_batch_size`: None
325
  - `per_gpu_eval_batch_size`: None
326
  - `gradient_accumulation_steps`: 1
@@ -332,7 +777,7 @@ You can finetune this model on your own dataset.
332
  - `adam_beta2`: 0.999
333
  - `adam_epsilon`: 1e-08
334
  - `max_grad_norm`: 1.0
335
- - `num_train_epochs`: 5
336
  - `max_steps`: -1
337
  - `lr_scheduler_type`: linear
338
  - `lr_scheduler_kwargs`: {}
@@ -393,9 +838,9 @@ You can finetune this model on your own dataset.
393
  - `dataloader_persistent_workers`: False
394
  - `skip_memory_metrics`: True
395
  - `use_legacy_prediction_loop`: False
396
- - `push_to_hub`: True
397
  - `resume_from_checkpoint`: None
398
- - `hub_model_id`: jangedoo/all-MiniLM-L6-v2-nepali
399
  - `hub_strategy`: every_save
400
  - `hub_private_repo`: False
401
  - `hub_always_push`: False
@@ -404,7 +849,7 @@ You can finetune this model on your own dataset.
404
  - `include_inputs_for_metrics`: False
405
  - `eval_do_concat_batches`: True
406
  - `fp16_backend`: auto
407
- - `push_to_hub_model_id`: all-MiniLM-L6-v2-nepali
408
  - `push_to_hub_organization`: None
409
  - `mp_parameters`:
410
  - `auto_find_batch_size`: False
@@ -430,70 +875,15 @@ You can finetune this model on your own dataset.
430
  </details>
431
 
432
  ### Training Logs
433
- | Epoch | Step | Training Loss | loss | mean_accuracy | negative_mse |
434
- |:------:|:-----:|:-------------:|:------:|:-------------:|:------------:|
435
- | 0.08 | 1000 | 0.0022 | 0.0019 | 0.0132 | -0.3831 |
436
- | 0.16 | 2000 | 0.002 | 0.0018 | 0.0184 | -0.3665 |
437
- | 0.24 | 3000 | 0.0019 | 0.0018 | 0.0243 | -0.3511 |
438
- | 0.32 | 4000 | 0.0019 | 0.0017 | 0.0307 | -0.3400 |
439
- | 0.4 | 5000 | 0.0018 | 0.0017 | 0.0386 | -0.3317 |
440
- | 0.48 | 6000 | 0.0018 | 0.0016 | 0.0504 | -0.3239 |
441
- | 0.56 | 7000 | 0.0017 | 0.0016 | 0.0701 | -0.3148 |
442
- | 0.64 | 8000 | 0.0017 | 0.0016 | 0.0973 | -0.3057 |
443
- | 0.72 | 9000 | 0.0017 | 0.0015 | 0.1307 | -0.2964 |
444
- | 0.8 | 10000 | 0.0016 | 0.0015 | 0.1672 | -0.2882 |
445
- | 0.88 | 11000 | 0.0016 | 0.0014 | 0.2049 | -0.2802 |
446
- | 0.96 | 12000 | 0.0016 | 0.0014 | 0.2358 | -0.2752 |
447
- | 1.04 | 13000 | 0.0015 | 0.0014 | 0.2631 | -0.2701 |
448
- | 1.12 | 14000 | 0.0015 | 0.0014 | 0.2896 | -0.2650 |
449
- | 1.2 | 15000 | 0.0015 | 0.0013 | 0.3191 | -0.2606 |
450
- | 1.28 | 16000 | 0.0015 | 0.0013 | 0.3467 | -0.2570 |
451
- | 1.3600 | 17000 | 0.0014 | 0.0013 | 0.3674 | -0.2536 |
452
- | 1.44 | 18000 | 0.0014 | 0.0013 | 0.3868 | -0.2502 |
453
- | 1.52 | 19000 | 0.0014 | 0.0013 | 0.4069 | -0.2475 |
454
- | 1.6 | 20000 | 0.0014 | 0.0013 | 0.4235 | -0.2456 |
455
- | 1.6800 | 21000 | 0.0014 | 0.0013 | 0.4397 | -0.2433 |
456
- | 1.76 | 22000 | 0.0014 | 0.0012 | 0.4538 | -0.2410 |
457
- | 1.8400 | 23000 | 0.0014 | 0.0012 | 0.4630 | -0.2392 |
458
- | 1.92 | 24000 | 0.0014 | 0.0012 | 0.4798 | -0.2374 |
459
- | 2.0 | 25000 | 0.0014 | 0.0012 | 0.4880 | -0.2354 |
460
- | 2.08 | 26000 | 0.0013 | 0.0012 | 0.5018 | -0.2340 |
461
- | 2.16 | 27000 | 0.0013 | 0.0012 | 0.5097 | -0.2324 |
462
- | 2.24 | 28000 | 0.0013 | 0.0012 | 0.5199 | -0.2305 |
463
- | 2.32 | 29000 | 0.0013 | 0.0012 | 0.5291 | -0.2292 |
464
- | 2.4 | 30000 | 0.0013 | 0.0012 | 0.5373 | -0.2292 |
465
- | 2.48 | 31000 | 0.0013 | 0.0012 | 0.5487 | -0.2271 |
466
- | 2.56 | 32000 | 0.0013 | 0.0012 | 0.5543 | -0.2259 |
467
- | 2.64 | 33000 | 0.0013 | 0.0012 | 0.5616 | -0.2249 |
468
- | 2.7200 | 34000 | 0.0013 | 0.0012 | 0.5698 | -0.2236 |
469
- | 2.8 | 35000 | 0.0013 | 0.0012 | 0.5779 | -0.2225 |
470
- | 2.88 | 36000 | 0.0013 | 0.0012 | 0.5829 | -0.2218 |
471
- | 2.96 | 37000 | 0.0013 | 0.0011 | 0.5893 | -0.2208 |
472
- | 3.04 | 38000 | 0.0013 | 0.0011 | 0.5947 | -0.2202 |
473
- | 3.12 | 39000 | 0.0013 | 0.0011 | 0.5986 | -0.2195 |
474
- | 3.2 | 40000 | 0.0013 | 0.0011 | 0.6019 | -0.2183 |
475
- | 3.2800 | 41000 | 0.0013 | 0.0011 | 0.6076 | -0.2177 |
476
- | 3.36 | 42000 | 0.0013 | 0.0011 | 0.6112 | -0.2173 |
477
- | 3.44 | 43000 | 0.0013 | 0.0011 | 0.6143 | -0.2166 |
478
- | 3.52 | 44000 | 0.0012 | 0.0011 | 0.6178 | -0.2163 |
479
- | 3.6 | 45000 | 0.0012 | 0.0011 | 0.6225 | -0.2153 |
480
- | 3.68 | 46000 | 0.0012 | 0.0011 | 0.6232 | -0.2148 |
481
- | 3.76 | 47000 | 0.0012 | 0.0011 | 0.6292 | -0.2142 |
482
- | 3.84 | 48000 | 0.0012 | 0.0011 | 0.6317 | -0.2136 |
483
- | 3.92 | 49000 | 0.0012 | 0.0011 | 0.6323 | -0.2135 |
484
- | 4.0 | 50000 | 0.0012 | 0.0011 | 0.634 | -0.2134 |
485
- | 4.08 | 51000 | 0.0012 | 0.0011 | 0.6362 | -0.2129 |
486
- | 4.16 | 52000 | 0.0012 | 0.0011 | 0.6377 | -0.2126 |
487
- | 4.24 | 53000 | 0.0012 | 0.0011 | 0.6379 | -0.2122 |
488
- | 4.32 | 54000 | 0.0012 | 0.0011 | 0.6413 | -0.2118 |
489
- | 4.4 | 55000 | 0.0012 | 0.0011 | 0.6425 | -0.2117 |
490
- | 4.48 | 56000 | 0.0012 | 0.0011 | 0.6425 | -0.2115 |
491
- | 4.5600 | 57000 | 0.0012 | 0.0011 | 0.6454 | -0.2114 |
492
- | 4.64 | 58000 | 0.0012 | 0.0011 | 0.6440 | -0.2112 |
493
- | 4.72 | 59000 | 0.0012 | 0.0011 | 0.6463 | -0.2110 |
494
- | 4.8 | 60000 | 0.0012 | 0.0011 | 0.6466 | -0.2110 |
495
- | 4.88 | 61000 | 0.0012 | 0.0011 | 0.6465 | -0.2109 |
496
- | 4.96 | 62000 | 0.0012 | 0.0011 | 0.6481 | -0.2108 |
497
 
498
 
499
  ### Framework Versions
@@ -522,19 +912,6 @@ You can finetune this model on your own dataset.
522
  }
523
  ```
524
 
525
- #### MSELoss
526
- ```bibtex
527
- @inproceedings{reimers-2020-multilingual-sentence-bert,
528
- title = "Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation",
529
- author = "Reimers, Nils and Gurevych, Iryna",
530
- booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing",
531
- month = "11",
532
- year = "2020",
533
- publisher = "Association for Computational Linguistics",
534
- url = "https://arxiv.org/abs/2004.09813",
535
- }
536
- ```
537
-
538
  <!--
539
  ## Glossary
540
 
 
1
  ---
2
+ base_model: jangedoo/all-MiniLM-L6-v2-nepali
3
  datasets:
4
+ - wikimedia/wikipedia
5
  language:
6
+ - ab
7
+ - ace
8
+ - ady
9
+ - af
10
+ - alt
11
+ - am
12
+ - ami
13
+ - an
14
+ - ang
15
+ - anp
16
+ - ar
17
+ - arc
18
+ - ary
19
+ - arz
20
+ - as
21
+ - ast
22
+ - atj
23
+ - av
24
+ - avk
25
+ - awa
26
+ - ay
27
+ - az
28
+ - azb
29
+ - ba
30
+ - ban
31
+ - bar
32
+ - bbc
33
+ - bcl
34
+ - be
35
+ - bg
36
+ - bh
37
+ - bi
38
+ - bjn
39
+ - blk
40
+ - bm
41
+ - bn
42
+ - bo
43
+ - bpy
44
+ - br
45
+ - bs
46
+ - bug
47
+ - bxr
48
+ - ca
49
+ - cbk
50
+ - cdo
51
+ - ce
52
+ - ceb
53
+ - ch
54
+ - chr
55
+ - chy
56
+ - ckb
57
+ - co
58
+ - cr
59
+ - crh
60
+ - cs
61
+ - csb
62
+ - cu
63
+ - cv
64
+ - cy
65
+ - da
66
+ - dag
67
+ - de
68
+ - dga
69
+ - din
70
+ - diq
71
+ - dsb
72
+ - dty
73
+ - dv
74
+ - dz
75
+ - ee
76
+ - el
77
+ - eml
78
  - en
79
+ - eo
80
+ - es
81
+ - et
82
+ - eu
83
+ - ext
84
+ - fa
85
+ - fat
86
+ - ff
87
+ - fi
88
+ - fj
89
+ - fo
90
+ - fon
91
+ - fr
92
+ - frp
93
+ - frr
94
+ - fur
95
+ - fy
96
+ - ga
97
+ - gag
98
+ - gan
99
+ - gcr
100
+ - gd
101
+ - gl
102
+ - glk
103
+ - gn
104
+ - gom
105
+ - gor
106
+ - got
107
+ - gpe
108
+ - gsw
109
+ - gu
110
+ - guc
111
+ - gur
112
+ - guw
113
+ - gv
114
+ - ha
115
+ - hak
116
+ - haw
117
+ - hbs
118
+ - he
119
+ - hi
120
+ - hif
121
+ - hr
122
+ - hsb
123
+ - ht
124
+ - hu
125
+ - hy
126
+ - hyw
127
+ - ia
128
+ - id
129
+ - ie
130
+ - ig
131
+ - ik
132
+ - ilo
133
+ - inh
134
+ - io
135
+ - is
136
+ - it
137
+ - iu
138
+ - ja
139
+ - jam
140
+ - jbo
141
+ - jv
142
+ - ka
143
+ - kaa
144
+ - kab
145
+ - kbd
146
+ - kbp
147
+ - kcg
148
+ - kg
149
+ - ki
150
+ - kk
151
+ - kl
152
+ - km
153
+ - kn
154
+ - ko
155
+ - koi
156
+ - krc
157
+ - ks
158
+ - ksh
159
+ - ku
160
+ - kv
161
+ - kw
162
+ - ky
163
+ - la
164
+ - lad
165
+ - lb
166
+ - lbe
167
+ - lez
168
+ - lfn
169
+ - lg
170
+ - li
171
+ - lij
172
+ - lld
173
+ - lmo
174
+ - ln
175
+ - lo
176
+ - lt
177
+ - ltg
178
+ - lv
179
+ - lzh
180
+ - mad
181
+ - mai
182
+ - map
183
+ - mdf
184
+ - mg
185
+ - mhr
186
+ - mi
187
+ - min
188
+ - mk
189
+ - ml
190
+ - mn
191
+ - mni
192
+ - mnw
193
+ - mr
194
+ - mrj
195
+ - ms
196
+ - mt
197
+ - mwl
198
+ - my
199
+ - myv
200
+ - mzn
201
+ - nah
202
+ - nan
203
+ - nap
204
+ - nds
205
  - ne
206
+ - new
207
+ - nia
208
+ - nl
209
+ - nn
210
+ - 'no'
211
+ - nov
212
+ - nqo
213
+ - nrf
214
+ - nso
215
+ - nv
216
+ - ny
217
+ - oc
218
+ - olo
219
+ - om
220
+ - or
221
+ - os
222
+ - pa
223
+ - pag
224
+ - pam
225
+ - pap
226
+ - pcd
227
+ - pcm
228
+ - pdc
229
+ - pfl
230
+ - pi
231
+ - pih
232
+ - pl
233
+ - pms
234
+ - pnb
235
+ - pnt
236
+ - ps
237
+ - pt
238
+ - pwn
239
+ - qu
240
+ - rm
241
+ - rmy
242
+ - rn
243
+ - ro
244
+ - ru
245
+ - rue
246
+ - rup
247
+ - rw
248
+ - sa
249
+ - sah
250
+ - sat
251
+ - sc
252
+ - scn
253
+ - sco
254
+ - sd
255
+ - se
256
+ - sg
257
+ - sgs
258
+ - shi
259
+ - shn
260
+ - si
261
+ - sk
262
+ - skr
263
+ - sl
264
+ - sm
265
+ - smn
266
+ - sn
267
+ - so
268
+ - sq
269
+ - sr
270
+ - srn
271
+ - ss
272
+ - st
273
+ - stq
274
+ - su
275
+ - sv
276
+ - sw
277
+ - szl
278
+ - szy
279
+ - ta
280
+ - tay
281
+ - tcy
282
+ - te
283
+ - tet
284
+ - tg
285
+ - th
286
+ - ti
287
+ - tk
288
+ - tl
289
+ - tly
290
+ - tn
291
+ - to
292
+ - tpi
293
+ - tr
294
+ - trv
295
+ - ts
296
+ - tt
297
+ - tum
298
+ - tw
299
+ - ty
300
+ - tyv
301
+ - udm
302
+ - ug
303
+ - uk
304
+ - ur
305
+ - uz
306
+ - ve
307
+ - vec
308
+ - vep
309
+ - vi
310
+ - vls
311
+ - vo
312
+ - vro
313
+ - wa
314
+ - war
315
+ - wo
316
+ - wuu
317
+ - xal
318
+ - xh
319
+ - xmf
320
+ - yi
321
+ - yo
322
+ - yue
323
+ - za
324
+ - zea
325
+ - zgh
326
+ - zh
327
+ - zu
328
  library_name: sentence-transformers
329
  metrics:
330
+ - cosine_accuracy@1
331
+ - cosine_accuracy@3
332
+ - cosine_accuracy@5
333
+ - cosine_accuracy@10
334
+ - cosine_precision@1
335
+ - cosine_precision@3
336
+ - cosine_precision@5
337
+ - cosine_precision@10
338
+ - cosine_recall@1
339
+ - cosine_recall@3
340
+ - cosine_recall@5
341
+ - cosine_recall@10
342
+ - cosine_ndcg@10
343
+ - cosine_mrr@10
344
+ - cosine_mrr@20
345
+ - cosine_mrr@50
346
+ - cosine_map@100
347
  pipeline_tag: sentence-similarity
348
  tags:
349
  - sentence-transformers
350
  - sentence-similarity
351
  - feature-extraction
352
  - generated_from_trainer
353
+ - dataset_size:50049
354
+ - loss:MultipleNegativesSymmetricRankingLoss
355
  widget:
356
+ - source_sentence: मैले मेरो तल्लो बायाँ पछाडि पेटमा गम्भीर दुखाइको अनुभव गरिरहेको
357
+ छु। मैले 20 वर्ष पहिले मेरो दाईलाई मेरो देब्रे मृगौला दान गरें, त्यसैले मलाई यो
358
+ मृगौला संक्रमण हो जस्तो लाग्दैन। मेरो तल्लो बायाँ पेटको एक्स-रे र बिरालोको स्क्यान
359
+ फेरि स्पष्ट आयो, तर मेरो डाक्टरलाई अब के गर्ने थाहा छैन।
360
  sentences:
361
+ - '- बाँझोपन धेरै कारण हुन सक्छ
 
362
 
363
+ - फलोपियन ट्युब खुल्ला हुनुको मतलब सधैं उर्वर हुनु होइन
 
 
364
 
365
+ - एउटा खुला र स्वस्थ ट्यूबले गर्भधारणको सम्भावना बढाउँछ
 
366
 
367
+ - अन्य बांझपन कारणहरू अस्वीकार गर्न परीक्षणहरूको लागि स्त्री रोग विशेषज्ञ खोज्नुहोस्
 
 
368
 
369
+ - अप्रभावी यौन सम्पर्क वा हार्मोनल समस्याहरू जस्ता कारकहरूले प्रजनन क्षमतालाई
370
+ असर गर्न सक्छ
371
+
372
+ - यौनसम्पर्क पछि मोहम्मदको स्थितिमा सुत्दा एन्टभर्टेड गर्भाशय ग्रीवालाई मद्दत
373
+ गर्न सकिन्छ
374
+
375
+ - प्रजनन क्षमता सुधार गर्न अन्तर्निहित मुद्दाहरूलाई सम्बोधन गर्नु महत्त्वपूर्ण
376
+ छ।'
377
+ - 'तपाईंको चिन्तालाई सम्बोधन गर्न, यहाँ केहि सुझावहरू छन्:
378
+
379
+
380
+ 1. यूरिया र क्रिएटिनिन स्तरहरू मापनको साथसाथै, पूर्ण पिसाब जाँच गराउने बारे विचार
381
+ गर्नुहोस्।
382
 
383
+ 2. केही मृगौला दाताहरूले समयको साथमा मृगौलाको कार्यक्षमतामा गिरावटको अनुभव गर्न
384
+ सक्छन् भविष्यमा डायलासिस आवश्यक हुन सक्छ।
 
385
 
386
+ 3. तपाईको मिर्गौलाको स्वास्थ्यको मूल्याङ्कन गर्नु महत्त्वपूर्ण छ, यदि तपाई अहिले
387
+ स्वस्थ महसुस गर्नुहुन्छ भने।
388
 
389
+ 4. पिसाब नलीको संक्रमणले गर्दा पनि दुखाइ हुन सक्छ, जसलाई पिसाब संस्कृति/संवेदनशीलता
390
+ परीक्षण पछि एन्टिबायोटिकले सजिलै उपचार गर्न सकिन्छ।
391
+
392
+ 5. आवश्यक निदान परीक्षणहरू गराउन र रिपोर्टहरू स्वास्थ्य सेवा पेशेवर वा च्याट प्लेटफर्म
393
+ मार्फत साझेदारी गर्न सिफारिस गरिन्छ।
394
+
395
+ 6. वैकल्पिक रूपमा, तपाईं थप मार्गदर्शनको लागि आफ्नो पारिवारिक चिकित्सकसँग परामर्श
396
+ गर्न सक्नुहुन्छ।
397
+
398
+ 7. तपाईलाई शुभकामना र आशा छ कि तपाईको चिन्ता सन्तोषजनक रूपमा सम्बोधन गरिएको छ।'
399
+ - पलक जैन एक भारतीय अभिनेत्री हुन्, उनले धेरै टेली चलचित्रहरूमा कार्य गरी सकेकी
400
+ छिन्। इतना करो ना मुझे प्यार, कहीं किसी रोज, दो हंसों का जोडा, दी बड्डी प्रोजेक्ट,
401
+ क्राइम पेट्रोल आदिमा उनीले कार्य गरेकी छिन् । उनीले छ वर्षको उमेरबाट अभिनयको
402
+ थालनी गरिन् ।
403
+ - source_sentence: के म मेरो अनुहारमा पिम्पल र दागहरू हटाउन मेलाग्लो जेल प्रयोग गर्न
404
+ सक्छु? मलाई धेरै वर्षदेखि निचोल्ने र छेक्ने लत लागेको छ, र अब म मेरो जीवनमा कम्तिमा
405
+ एक पटक स्पष्ट अनुहार पाउन चाहन्छु। म गोरो छाला भएको ४२ वर्षीया महिला हुँ।
406
  sentences:
407
+ - '- छालाको चिन्ताको उपचार गर्न ग्लाइकोलिक एसिड वा सेलिसिलिक एसिड फेसवाश प्रयोग
408
+ गर्नुहोस्
409
+
410
+ - ब्ल्याकहेड्स निचोड वा छनोट नगर्नुहोस्, किनकि यसले दाग र पिग्मेन्टेसन निम्त्याउन
411
+ सक्छ
412
+
413
+ - पिम्पलको लागि क्लिन्डामाइसिन जेल रेटिन-ए क्रिम प्रयोग गर्नुहोस्
414
+
415
+ - पिग्मेन्टेसन चिन्हहरूको लागि कमिक एसिड क्रिम प्रयोग गर्नुहोस्
416
+
417
+ - गम्भीर मुँहासेको लागि छाला विशेषज्ञसँग परामर्श गर्नुहोस्
418
+
419
+ - गम्भीर मुँहासेको लागि मौखिक एन्टिबायोटिक वा आइसोट्रेटिनोइन लिने विचार गर्नुहोस्
420
+
421
+ - तपाइँको 40 को दशक मा मुँहासे को लागी हर्मोन चक्की को आवश्यकता हुन सक्छ
422
+
423
+ - रासायनिक बोक्राले दाग, पिग्मेन्टेसन, र सक्रिय मुँहासे घावहरूमा मद्दत गर्न सक्छ
424
+
425
+ - थप उपचार विकल्पहरूको लागि छाला विशेषज्ञसँग भेटघाट गर्नुहोस्।'
426
+ - "इन्द्र कुमार गुजराल (जन्म ४ डिसेम्बर स.न्. १९१९) भारतका पूर्व प्रधानमन्त्री थिए\
427
+ \ । \n\nसन्दर्भ सामग्रीहरू\n\nयी पनि हेर्नुहोस्\n\nभारतीय राजनीतिज्ञहरू\nभारतका\
428
+ \ प्रधानमन्त्रीहरू\nभारतीय नेताहरू\nसन् २०१२ मा मृत्यु\nभारतीय हिन्दुहरू"
429
+ - '- यो उमेर समूहका लागि Piriton प्रयोग गर्नु हुँदैन।
430
+
431
+ - बालबालिकामा रुघाखोकी र रुघाखोकी सामान्यतया भाइरसको कारणले हुन्छ ।
432
+
433
+ - चिसो लक्षणहरूको लागि, तपाइँ सेटिरिजिन जस्ता एन्टि-एलर्जी औषधिहरू प्रयोग गर्न
434
+ सक्नुहुन्छ।
435
+
436
+ - नुनिलो नाक डिकन्जेस्टेन्टले भरिएको नाकमा मद्दत गर्न सक्छ।
437
+
438
+ - ज्वरोको लागि पारासिटामोल दिन सकिन्छ, तर यदि यो 100F माथि छ भने मात्र।
439
+
440
+ - ज्वरोको लागि संयोजन औषधिहरू प्रयोग नगर्नुहोस्, विशेष गरी पारासिटामोलको साथ।
441
+
442
+ - Cetirizine चिसो लक्षणहरूको लागि 0.25 mg/kg प्रत्येक 12 घण्टामा 3 दिनको लागि
443
+ प्रयोग गर्न सकिन्छ।
444
+
445
+ - सादा सलाइन नाक ड्रप नाक अवरोध को लागी प्रयोग गर्न सकिन्छ।'
446
+ - source_sentence: बेलविछवा
447
  sentences:
448
+ - सडकको नियमित मर्मतका लागि भनेर सरकारले विभिन्न सेवा र वस्तुमार्फत् अर्बौँ रुपैयाँ
449
+ कर उठाउँछ।
450
+ - '- तपाईंको ढाडमा गाँठहरू प्रायः कीराको टोकाइ वा ब्याक्टेरियाको संक्रमणको कारणले
451
+ हुन्छ, जसले फोकाहरू निम्त्याउन सक्छ।
452
 
453
+ – तपाईलाई हाइपो थाइराइड भएको हुनाले यो समस्यासँग सम्बन्धित हुन सक्छ ।
 
 
454
 
455
+ - म तपाईंलाई थप परीक्षण र उपयुक्त उपचारको लागि आपतकालीन कोठा (ER) डाक्टरसँग परामर्श
456
+ गर्न सल्लाह दिन्छु।
 
 
457
 
458
+ - चिन्ता नगर्नुहोस्, उचित हेरचाह गर्नाले गाँठो हट्नेछ।
 
459
 
460
+ - उपचारमा ओभर-द-काउन्टर दुखाइ निवारकहरू (NSAIDs) र एन्टिबायोटिकहरू समावेश हुन
461
+ सक्छ।
462
+
463
+ - भविष्यमा थप प्रश्नहरू सोध्न स्वतन्त्र महसुस गर्नुहोस्, र शुभ दिन।'
464
+ - "बेलविछवा रौतहट जिल्लाको एक गाउँ विकास समिति हो । \n\nसन्दर्भ सामग्रीहरू\n\nबाह्य\
465
+ \ कडीहरू"
466
+ - source_sentence: बीबीसी अनुसन्धानपछि नेपालमा चिम्पान्जी तस्कर पक्राउ
467
  sentences:
468
+ - '- तपाईंले महसुस गर्नुभएको दुखाइ तपाईंको रिब पिंजरामा तानिएको मांसपेशीले गर्दा
469
+ भएको थियो।
470
+
471
+ - तपाईं यार्ड मा काम गर्दा यो भयो।
472
+
473
+ - यो सामान्य मांसपेशी र हड्डी दुखाइ भएकोले चिन्ता लिनु पर्दैन।
474
 
475
+ - कुनै पनि भारी शारीरिक गतिविधिहरू नगर्नुहोस् जसले तपाईंको माथिल्लो शरीरलाई तनाव
476
+ दिन्छ।
477
 
478
+ - सुत्दा बायाँ तिर सुत्नुहोस्।
 
479
 
480
+ - यदि दुखाइ फिर्ता आयो भने, तपाइँ एस्पिरिन वा आइबुप्रोफेन जस्ता साधारण दुखाइ निवारक
481
+ लिन सक्नुहुन्छ।
482
+
483
+ - यी चरणहरू पछ्याउँदा तपाईंलाई राम्रो महसुस गर्न मद्दत गर्नेछ।
484
+
485
+ - यदि तपाइँसँग कुनै थप चिन्ता छ भने, हामीसँग फेरि कुराकानी गर्न नहिचकिचाउनुहोस्।'
486
+ - चिम्पान्जी तस्करीबारे गत वर्ष बीबीसी अनुसन्धानबाट भएको खुलासाका आधारमा नेपाल प्रहरीले
487
+ सो सङ्कटापन्न वन्यजन्तु तस्करी गर्ने एउटा प्रयास विफल पारिदिएको छ।
488
+ - "छिन्दवाडा जिल्ला भारतीय राज्य मध्य प्रदेशको एउटा जिल्ला हो। \n\nयो पनि हेर्नुहोस्\n\
489
+ \nमध्य प्रदेश\nभारतका जिल्लाहरू\nमध्य प्रदेशका जिल्लाहरू"
490
+ - source_sentence: अर्थवेद
491
+ sentences:
492
+ - "अर्थवेद\nचार वेदका चार उपवेद मानिन्छ-\nधनुर्वेद, \nगान्धर्ववेद, \nआयुर्वेद, र\
493
+ \ \nअर्थवेद \nपं. धनराज शास्त्रीले अर्थवेदका चार ठूला र दुइ ाना ग्रन्थको उल्लेख\
494
+ \ गरेका छन्\n\nठूला ग्रन्थ\nचार ठूला ग्रन्थ यस प्रकार छन् \n १. अर्थोपवेद– यसको\
495
+ \ श्लोक संख्या एक लाख बताइएको छ । \n २.अर्थवेद– यसको श्लोक संख्या ३० हजार बताइएको\
496
+ \ छ । \n ३. अर्थ चन्द्रोदय– यसको श्लोक संख्या २० हजार बताइएको छ ।"
497
+ - वाच्य भनेको भनाइ हो । वाक्यमा रहेका कर्ता, कर्म र क्रियामध्ये कुन भनाइ मुख्य
498
+ रहेको छ भनी छुट्याउने व्याकरणिक कोटिलाई वाच्य भनिन्छ । अर्थात् कर्ता, कर्म र
499
+ भावको बोध गराउने वाक्यलाइ वाच्य भनिन्छ ।
500
+ - "डा. फेल, डिटेक्टिभ, एन्ड अदर स्टोरिज अमेरिकन उपन्यासकार तथा लेखक जोन डिक्सन कारद्वारा\
501
+ \ लिखित लघुकथा सङ्ग्रह हो । \n\nसन्दर्भ सूची\n\nलघुकथा संग्रहहरू\nपुस्तकहरू\n\
502
+ जोन डिक्सन कारका लघुकथा संग्रहहरू"
503
  model-index:
504
+ - name: SentenceTransformer based on jangedoo/all-MiniLM-L6-v2-nepali
505
  results:
506
  - task:
507
+ type: information-retrieval
508
+ name: Information Retrieval
509
  dataset:
510
  name: Unknown
511
  type: unknown
512
  metrics:
513
+ - type: cosine_accuracy@1
514
+ value: 0.5404
515
+ name: Cosine Accuracy@1
516
+ - type: cosine_accuracy@3
517
+ value: 0.6196
518
+ name: Cosine Accuracy@3
519
+ - type: cosine_accuracy@5
520
+ value: 0.654
521
+ name: Cosine Accuracy@5
522
+ - type: cosine_accuracy@10
523
+ value: 0.6962
524
+ name: Cosine Accuracy@10
525
+ - type: cosine_precision@1
526
+ value: 0.5404
527
+ name: Cosine Precision@1
528
+ - type: cosine_precision@3
529
+ value: 0.2065333333333333
530
+ name: Cosine Precision@3
531
+ - type: cosine_precision@5
532
+ value: 0.1308
533
+ name: Cosine Precision@5
534
+ - type: cosine_precision@10
535
+ value: 0.06961999999999999
536
+ name: Cosine Precision@10
537
+ - type: cosine_recall@1
538
+ value: 0.5404
539
+ name: Cosine Recall@1
540
+ - type: cosine_recall@3
541
+ value: 0.6196
542
+ name: Cosine Recall@3
543
+ - type: cosine_recall@5
544
+ value: 0.654
545
+ name: Cosine Recall@5
546
+ - type: cosine_recall@10
547
+ value: 0.6962
548
+ name: Cosine Recall@10
549
+ - type: cosine_ndcg@10
550
+ value: 0.614560612378296
551
+ name: Cosine Ndcg@10
552
+ - type: cosine_mrr@10
553
+ value: 0.5888884126984126
554
+ name: Cosine Mrr@10
555
+ - type: cosine_mrr@20
556
+ value: 0.5918181110470189
557
+ name: Cosine Mrr@20
558
+ - type: cosine_mrr@50
559
+ value: 0.5937323352722809
560
+ name: Cosine Mrr@50
561
+ - type: cosine_map@100
562
+ value: 0.5943859310752522
563
+ name: Cosine Map@100
564
  ---
565
 
566
+ # SentenceTransformer based on jangedoo/all-MiniLM-L6-v2-nepali
567
 
568
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [jangedoo/all-MiniLM-L6-v2-nepali](https://huggingface.co/jangedoo/all-MiniLM-L6-v2-nepali) on the [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) dataset. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
569
 
570
  ## Model Details
571
 
572
  ### Model Description
573
  - **Model Type:** Sentence Transformer
574
+ - **Base model:** [jangedoo/all-MiniLM-L6-v2-nepali](https://huggingface.co/jangedoo/all-MiniLM-L6-v2-nepali) <!-- at revision 85611e56d8d9eb7213de6a5049d99928688a5e98 -->
575
  - **Maximum Sequence Length:** 256 tokens
576
  - **Output Dimensionality:** 384 tokens
577
  - **Similarity Function:** Cosine Similarity
578
  - **Training Dataset:**
579
+ - [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia)
580
+ - **Languages:** ab, ace, ady, af, alt, am, ami, an, ang, anp, ar, arc, ary, arz, as, ast, atj, av, avk, awa, ay, az, azb, ba, ban, bar, bbc, bcl, be, bg, bh, bi, bjn, blk, bm, bn, bo, bpy, br, bs, bug, bxr, ca, cbk, cdo, ce, ceb, ch, chr, chy, ckb, co, cr, crh, cs, csb, cu, cv, cy, da, dag, de, dga, din, diq, dsb, dty, dv, dz, ee, el, eml, en, eo, es, et, eu, ext, fa, fat, ff, fi, fj, fo, fon, fr, frp, frr, fur, fy, ga, gag, gan, gcr, gd, gl, glk, gn, gom, gor, got, gpe, gsw, gu, guc, gur, guw, gv, ha, hak, haw, hbs, he, hi, hif, hr, hsb, ht, hu, hy, hyw, ia, id, ie, ig, ik, ilo, inh, io, is, it, iu, ja, jam, jbo, jv, ka, kaa, kab, kbd, kbp, kcg, kg, ki, kk, kl, km, kn, ko, koi, krc, ks, ksh, ku, kv, kw, ky, la, lad, lb, lbe, lez, lfn, lg, li, lij, lld, lmo, ln, lo, lt, ltg, lv, lzh, mad, mai, map, mdf, mg, mhr, mi, min, mk, ml, mn, mni, mnw, mr, mrj, ms, mt, mwl, my, myv, mzn, nah, nan, nap, nds, ne, new, nia, nl, nn, no, nov, nqo, nrf, nso, nv, ny, oc, olo, om, or, os, pa, pag, pam, pap, pcd, pcm, pdc, pfl, pi, pih, pl, pms, pnb, pnt, ps, pt, pwn, qu, rm, rmy, rn, ro, ru, rue, rup, rw, sa, sah, sat, sc, scn, sco, sd, se, sg, sgs, shi, shn, si, sk, skr, sl, sm, smn, sn, so, sq, sr, srn, ss, st, stq, su, sv, sw, szl, szy, ta, tay, tcy, te, tet, tg, th, ti, tk, tl, tly, tn, to, tpi, tr, trv, ts, tt, tum, tw, ty, tyv, udm, ug, uk, ur, uz, ve, vec, vep, vi, vls, vo, vro, wa, war, wo, wuu, xal, xh, xmf, yi, yo, yue, za, zea, zgh, zh, zu
581
  <!-- - **License:** Unknown -->
582
 
583
  ### Model Sources
 
614
  model = SentenceTransformer("jangedoo/all-MiniLM-L6-v2-nepali")
615
  # Run inference
616
  sentences = [
617
+ 'अर्थवेद',
618
+ 'अर्थवेद\nचार वेदका चार उपवेद मानिन्छ-\nधनुर्वेद, \nगान्धर्ववेद, \nआयुर्वेद, \nअर्थवेद \nपं. धनराज शास्त्रीले अर्थवेदका चार ठूला र दुइ ाना ग्रन्थको उल्लेख गरेका छन्\n\nठूला ग्रन्थ\nचार ठूला ग्रन्थ यस प्रकार छन् \n १. अर्थोपवेद– यसको श्लोक संख्या एक लाख बताइएको छ । \n २.अर्थवेद– यसको श्लोक संख्या ३० हजार बताइएको छ । \n ३. अर्थ चन्द्रोदय– यसको श्लोक संख्या २० हजार बताइएको छ ।',
619
+ 'डा. फेल, डिटेक्टिभ, एन्ड अदर स्टोरिज अमेरिकन उपन्यासकार तथा लेखक जोन डिक्सन कारद्वारा लिखित लघुकथा सङ्ग्रह हो । \n\nसन्दर्भ सूची\n\nलघुकथा संग्रहहरू\nपुस्तकहरू\nजोन डिक्सन कारका लघुकथा संग्रहहरू',
620
  ]
621
  embeddings = model.encode(sentences)
622
  print(embeddings.shape)
 
656
 
657
  ### Metrics
658
 
659
+ #### Information Retrieval
660
+
661
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
662
+
663
+ | Metric | Value |
664
+ |:--------------------|:-----------|
665
+ | cosine_accuracy@1 | 0.5404 |
666
+ | cosine_accuracy@3 | 0.6196 |
667
+ | cosine_accuracy@5 | 0.654 |
668
+ | cosine_accuracy@10 | 0.6962 |
669
+ | cosine_precision@1 | 0.5404 |
670
+ | cosine_precision@3 | 0.2065 |
671
+ | cosine_precision@5 | 0.1308 |
672
+ | cosine_precision@10 | 0.0696 |
673
+ | cosine_recall@1 | 0.5404 |
674
+ | cosine_recall@3 | 0.6196 |
675
+ | cosine_recall@5 | 0.654 |
676
+ | cosine_recall@10 | 0.6962 |
677
+ | cosine_ndcg@10 | 0.6146 |
678
+ | cosine_mrr@10 | 0.5889 |
679
+ | cosine_mrr@20 | 0.5918 |
680
+ | cosine_mrr@50 | 0.5937 |
681
+ | **cosine_map@100** | **0.5944** |
682
 
683
  <!--
684
  ## Bias, Risks and Limitations
 
696
 
697
  ### Training Dataset
698
 
699
+ #### wikimedia/wikipedia
700
 
701
+ * Dataset: [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) at [b04c8d1](https://huggingface.co/datasets/wikimedia/wikipedia/tree/b04c8d1ceb2f5cd4588862100d08de323dccfbaa)
702
+ * Size: 50,049 training samples
703
+ * Columns: <code>anchor</code> and <code>positive</code>
704
  * Approximate statistics based on the first 1000 samples:
705
+ | | anchor | positive |
706
+ |:--------|:-----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
707
+ | type | string | string |
708
+ | details | <ul><li>min: 3 tokens</li><li>mean: 49.45 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 17 tokens</li><li>mean: 166.52 tokens</li><li>max: 256 tokens</li></ul> |
709
  * Samples:
710
+ | anchor | positive |
711
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
712
+ | <code>पहिलो पटक फेस वेक्सिङ गर्ने प्रयास गरेपछि मेरो गालामा दागहरू देखा परे। मेरो डाक्टरले clindac A जेल सिफारिस गर्नुभयो। के मेरो छाला निको हुन लामो समय लाग्छ वा केहि दिनमा यो राम्रो हुन सक्छ?</code> | <code>डाक्टरबाट सुझावहरू:<br><br>1. उचित परीक्षणको लागि छाला विशेषज्ञसँग परामर्श गर्नुहोस्।<br>2. वाक्सिङ पछि तपाईंको अनुहारमा दागहरू सम्पर्क डर्मेटाइटिस वा एलर्जी प्रतिक्रियाको कारण हुन सक्छ।<br>3. डाक्टरले एन्टिहिस्टामिन औषधि र कोर्टिकोस्टेरोइड मलम लेख्न सक्छ।<br>4. रातो दागहरू छुन वा चुम्बन नगर्नुहोस्।<br>5. अहिलेको लागि प्रत्यक्ष सूर्यको जोखिम र कस्मेटिक उत्पादनहरूबाट बच्नुहोस्।</code> |
713
+ | <code>विश्व व्यापार केन्द्र</code> | <code>वर्ल्ड ट्रेड सेन्टर न्यु योर्क सहरको मैनछटनमा बनेका दुई टावर रूपी भवनहरूको जोडी थियो, जसलाई आतंकवादी सङ्गठन अल कायदासंग सम्बन्धित आतंकवादिहरूले ११ सितंबर, २००१मा नष्ट गरिदिएका थिए। <br><br>मूल वर्ल्ड ट्रेड सेन्टर तल्लो मैनहट्टन, न्यु योर्क सिटी, संयुक्त राज्य अमेरिकामा मीलको पत्थर जुडुवा टावरहरूको विशेषता सात भवनहरुका साथ एक जटिल थियो। जटिल ४ अप्रिल, १९७३लाई खोला, र ११ सेप्टेम्बरका हमलाको समयमा २००१मा नष्ट गरेको थियो।</code> |
714
+ | <code>एम्बुलेन्स</code> | <code>एम्बुलेन्स बिरामी वा घाइते मान्छेलाई रोग वा चोट लागि उपचार गर्नको लागि अस्पताल सम्म पुर्याउन प्रयोग हुने सवारी साधन हो। <br><br>यो पनि हेर्नुहोस<br><br>सन्दर्भ सामग्रीहरू<br><br>बाह्य कडीहरू<br><br>आकस्मिक स्वास्थ्य सेवा<br>एम्बुलेन्स</code> |
715
+ * Loss: [<code>MultipleNegativesSymmetricRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativessymmetricrankingloss) with these parameters:
716
+ ```json
717
+ {
718
+ "scale": 20.0,
719
+ "similarity_fct": "cos_sim"
720
+ }
721
+ ```
722
 
723
  ### Evaluation Dataset
724
 
725
+ #### wikimedia/wikipedia
726
 
727
+ * Dataset: [wikimedia/wikipedia](https://huggingface.co/datasets/wikimedia/wikipedia) at [b04c8d1](https://huggingface.co/datasets/wikimedia/wikipedia/tree/b04c8d1ceb2f5cd4588862100d08de323dccfbaa)
728
+ * Size: 3,000 evaluation samples
729
+ * Columns: <code>anchor</code> and <code>positive</code>
730
  * Approximate statistics based on the first 1000 samples:
731
+ | | anchor | positive |
732
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
733
+ | type | string | string |
734
+ | details | <ul><li>min: 3 tokens</li><li>mean: 50.5 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 22 tokens</li><li>mean: 170.43 tokens</li><li>max: 256 tokens</li></ul> |
735
  * Samples:
736
+ | anchor | positive |
737
+ |:--------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
738
+ | <code>जनसाङ्ख्यिकीय लाभांश</code> | <code>जनसाङ्ख्यिकीय लाभांश (Demographic dividend) अर्थ व्यवस्थामा मानव संसाधनका सकारात्मक र सतत विकासलाई दर्शाउँदछ। यो जनसङ्ख्या ढाँचामा बढदो युवा एवं कार्यशील जनसङ्ख्या (१५ वर्षदेखि ६४ वर्ष आयु वर्ग) तथा घट्तो आश्रितता अनुपातका परिणामस्वरूप उत्पादनमा ठूलो मात्राका सृजनलाई प्रदर्शित गर्दछ। यस स्थितिमा जनसङ्ख्या पिरामिड उल्टा बन्नेछ अर्थात यसमा कम जनसङ्ख्या आधार भन्दा माथि ठूलो जनसङ्ख्यातर्फ बढ्दछन्।</code> |
739
+ | <code>साडी गाविस</code> | <code>साडी गाविस नेपालको पश्चिमाञ्चल विकास क्षेत्रको लुम्बिनी अञ्चल, रूपन्देही जिल्लामा अवस्थित गाउँ विकास समिति हो <br><br>रूपन्देही जिल्लाका ठाउँहरू</code> |
740
+ | <code>हेप सी सिरोसिस भएको मेरो साथीले नाकबाट रगत बग्नेलाई गम्भीरतापूर्वक लिनु पर्छ जेलमा विशेषज्ञलाई भेट्न माग गर्नु पर्छ?</code> | <code>– लिभर सिरोसिसले नाकबाट रगत बगाउन सक्छ<br>– सिरोसिसमा कलेजोले राम्रोसँग काम गर्दैन<br>- यसले कोगुलेसन कारकहरूको उत्पादनलाई असर गर्छ, जुन रगत जम्मा ग��्न जिम्मेवार हुन्छ<br>- फलस्वरूप, क्लोटिंग प्रणाली प्रभावित हुन्छ नाक रगत हुन सक्छ<br>- तपाईंको साथीले उचित मूल्याङ्कन उपचारको लागि डाक्टरसँग परामर्श गर्नुपर्छ<br>- केहि अवस्थामा, पोर्टल हाइपरटेन्सन व्यवस्थापन गर्न TIPS जस्ता शल्यक्रियाहरू वा बीटा ब्लकरहरू जस्तै औषधिहरू सिफारिस गर्न सकिन्छ।<br>- सिरोसिसको अन्तिम उपचार कलेजो प्रत्यारोपण हो<br>- यदि varices (अन्ननलीमा असामान्य नसहरू) बाट कुनै पनि रक्तस्राव भएमा, ब्यान्डिङ जस्ता प्रक्रियाहरूको लागि तत्काल चिकित्सा ध्यान आवश्यक छ।<br>- यो तपाईंको साथीसँग कुराकानी जारी राख्न र यस प्रक्रिया मार्फत तिनीहरूलाई समर्थन गर्न महत्त्वपूर्ण छ</code> |
741
+ * Loss: [<code>MultipleNegativesSymmetricRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativessymmetricrankingloss) with these parameters:
742
+ ```json
743
+ {
744
+ "scale": 20.0,
745
+ "similarity_fct": "cos_sim"
746
+ }
747
+ ```
748
 
749
  ### Training Hyperparameters
750
  #### Non-Default Hyperparameters
751
 
752
  - `eval_strategy`: steps
753
+ - `per_device_train_batch_size`: 128
754
+ - `per_device_eval_batch_size`: 128
755
  - `learning_rate`: 2e-05
756
+ - `num_train_epochs`: 1
757
  - `warmup_ratio`: 0.1
758
  - `bf16`: True
 
 
 
759
 
760
  #### All Hyperparameters
761
  <details><summary>Click to expand</summary>
 
764
  - `do_predict`: False
765
  - `eval_strategy`: steps
766
  - `prediction_loss_only`: True
767
+ - `per_device_train_batch_size`: 128
768
+ - `per_device_eval_batch_size`: 128
769
  - `per_gpu_train_batch_size`: None
770
  - `per_gpu_eval_batch_size`: None
771
  - `gradient_accumulation_steps`: 1
 
777
  - `adam_beta2`: 0.999
778
  - `adam_epsilon`: 1e-08
779
  - `max_grad_norm`: 1.0
780
+ - `num_train_epochs`: 1
781
  - `max_steps`: -1
782
  - `lr_scheduler_type`: linear
783
  - `lr_scheduler_kwargs`: {}
 
838
  - `dataloader_persistent_workers`: False
839
  - `skip_memory_metrics`: True
840
  - `use_legacy_prediction_loop`: False
841
+ - `push_to_hub`: False
842
  - `resume_from_checkpoint`: None
843
+ - `hub_model_id`: None
844
  - `hub_strategy`: every_save
845
  - `hub_private_repo`: False
846
  - `hub_always_push`: False
 
849
  - `include_inputs_for_metrics`: False
850
  - `eval_do_concat_batches`: True
851
  - `fp16_backend`: auto
852
+ - `push_to_hub_model_id`: None
853
  - `push_to_hub_organization`: None
854
  - `mp_parameters`:
855
  - `auto_find_batch_size`: False
 
875
  </details>
876
 
877
  ### Training Logs
878
+ | Epoch | Step | Training Loss | loss | cosine_map@100 |
879
+ |:------:|:----:|:-------------:|:------:|:--------------:|
880
+ | 0.2551 | 100 | 2.2721 | 1.2990 | 0.5353 |
881
+ | 0.5102 | 200 | 1.3917 | 1.1731 | 0.5622 |
882
+ | 0.7653 | 300 | 1.3028 | 1.1260 | 0.5737 |
883
+ | 0.2551 | 100 | 1.1812 | 1.0509 | 0.5833 |
884
+ | 0.5102 | 200 | 1.148 | 1.0233 | 0.5883 |
885
+ | 0.7653 | 300 | 1.1278 | 1.0055 | 0.5937 |
886
+ | 1.0 | 392 | - | - | 0.5944 |
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
887
 
888
 
889
  ### Framework Versions
 
912
  }
913
  ```
914
 
 
 
 
 
 
 
 
 
 
 
 
 
 
915
  <!--
916
  ## Glossary
917
 
config.json CHANGED
@@ -1,5 +1,5 @@
1
  {
2
- "_name_or_path": "sentence-transformers/all-MiniLM-L6-v2",
3
  "architectures": [
4
  "BertModel"
5
  ],
 
1
  {
2
+ "_name_or_path": "./models/all-MiniLM-L6-v2-nepali-qa-finetune/final/",
3
  "architectures": [
4
  "BertModel"
5
  ],
model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:d85cb6c8cadf76aedf52705dfa8ecef1cb2e5289841bc104b9a21eaecccd1347
3
  size 90864192
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:5cc4dcd982892149aa687cc3b2be02dac6431707ce47421cc6149c1d08fd8f77
3
  size 90864192