You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

SentenceTransformer based on intfloat/multilingual-e5-base

This is a sentence-transformers model finetuned from intfloat/multilingual-e5-base on the rozetka_positive_pairs dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: intfloat/multilingual-e5-base
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 768 dimensions
  • Similarity Function: Dot Product
  • Training Dataset:
    • rozetka_positive_pairs

Model Sources

Full Model Architecture

RZTKSentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("yklymchuk-rztk/multilingual-e5-base-matryoshka2d-mnr-triplets-1")
# Run inference
sentences = [
    'query: мыло твердое',
    'passage: Мило Duru Soft Sensations Морські мінерали 4 x 90 г (8690506025090)',
    'passage: Подарунковий набір мила Sapo Різдво (4820229120688/4820229120688)',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Information Retrieval

  • Datasets: bm-full, core-uk-title, core-ru-title, core-uk-options, core-ru-options, options-uk-title, options-ru-title, options-uk-options, options-ru-options, rusisms-uk-title, rusisms-ru-title, rusisms-uk-options, rusisms-ru-options, rusisms_corrected-uk-title, rusisms_corrected-ru-title, rusisms_corrected-uk-options, rusisms_corrected-ru-options, core_typos-uk-title, core_typos-ru-title, core_typos-uk-options and core_typos-ru-options
  • Evaluated with InformationRetrievalEvaluator
Metric bm-full core-uk-title core-ru-title core-uk-options core-ru-options options-uk-title options-ru-title options-uk-options options-ru-options rusisms-uk-title rusisms-ru-title rusisms-uk-options rusisms-ru-options rusisms_corrected-uk-title rusisms_corrected-ru-title rusisms_corrected-uk-options rusisms_corrected-ru-options core_typos-uk-title core_typos-ru-title core_typos-uk-options core_typos-ru-options
dot_accuracy@1 0.4487 0.6016 0.614 0.4302 0.4507 0.5768 0.588 0.4855 0.4633 0.5079 0.5556 0.3746 0.3841 0.6519 0.6646 0.5127 0.5032 0.5031 0.5092 0.309 0.3357
dot_accuracy@3 0.6069 0.8049 0.8142 0.6869 0.6786 0.7773 0.8129 0.6526 0.6637 0.6667 0.6762 0.4952 0.473 0.7722 0.7943 0.6519 0.6329 0.7084 0.7125 0.5226 0.5349
dot_accuracy@5 0.684 0.8758 0.884 0.7834 0.7844 0.8486 0.8686 0.7595 0.7728 0.7333 0.727 0.5524 0.5397 0.8354 0.8386 0.7184 0.7152 0.7875 0.7875 0.6191 0.6232
dot_accuracy@10 0.77 0.9384 0.9384 0.883 0.8912 0.9354 0.9399 0.8597 0.8842 0.7778 0.7746 0.6413 0.6349 0.8829 0.8829 0.7975 0.8006 0.8583 0.8552 0.7259 0.7218
dot_precision@1 0.4487 0.6016 0.614 0.4302 0.4507 0.5768 0.588 0.4855 0.4633 0.5079 0.5556 0.3746 0.3841 0.6519 0.6646 0.5127 0.5032 0.5031 0.5092 0.309 0.3357
dot_precision@3 0.4489 0.5852 0.5975 0.4326 0.4398 0.5531 0.5635 0.4462 0.4484 0.5175 0.5344 0.3735 0.3598 0.6403 0.6371 0.5084 0.4926 0.4836 0.4908 0.3179 0.3265
dot_precision@5 0.442 0.5567 0.5669 0.4187 0.4246 0.5256 0.5296 0.4321 0.4374 0.5137 0.5156 0.3683 0.3562 0.6329 0.6323 0.5038 0.4867 0.4589 0.4624 0.3068 0.3152
dot_precision@10 0.4238 0.4533 0.4593 0.3661 0.371 0.4147 0.412 0.3528 0.3579 0.4978 0.5041 0.3517 0.3502 0.5959 0.5902 0.4769 0.4668 0.3715 0.3729 0.2729 0.2737
dot_recall@1 0.0105 0.0613 0.0625 0.0429 0.0451 0.0888 0.0897 0.0697 0.0677 0.0334 0.0354 0.0258 0.0285 0.0403 0.0447 0.0365 0.0392 0.0509 0.0516 0.0306 0.0331
dot_recall@3 0.0314 0.1775 0.1821 0.1292 0.1314 0.2512 0.2556 0.1897 0.193 0.0868 0.0883 0.0597 0.063 0.1086 0.1131 0.0816 0.0835 0.1467 0.1499 0.0937 0.0966
dot_recall@5 0.0513 0.2805 0.2859 0.2073 0.2093 0.3938 0.396 0.3046 0.3101 0.133 0.1314 0.0879 0.0902 0.173 0.1749 0.1254 0.1219 0.2309 0.2346 0.1502 0.1555
dot_recall@10 0.0965 0.4475 0.4533 0.3555 0.3606 0.5963 0.5923 0.4897 0.4981 0.2312 0.2335 0.1564 0.1602 0.293 0.2885 0.2216 0.2178 0.368 0.3698 0.2663 0.2673
dot_ndcg@10 0.4313 0.5182 0.5263 0.4025 0.4092 0.573 0.5721 0.4686 0.472 0.5236 0.5347 0.3737 0.3753 0.6408 0.6373 0.5106 0.5006 0.4262 0.4295 0.2981 0.3025
dot_mrr@10 0.5447 0.7165 0.7283 0.5793 0.5898 0.6964 0.7068 0.5968 0.5893 0.5978 0.6273 0.4507 0.4553 0.725 0.7363 0.6014 0.5886 0.6199 0.6242 0.442 0.4569
dot_map@100 0.26 0.4759 0.4837 0.3813 0.3863 0.5524 0.5514 0.4566 0.4587 0.4312 0.4379 0.3158 0.323 0.5392 0.5375 0.4327 0.4347 0.3823 0.387 0.28 0.2835

Information Retrieval

  • Datasets: bm-full--matryoshka_dim-768--, bm-full--matryoshka_dim-512--, bm-full--matryoshka_dim-256-- and bm-full--matryoshka_dim-128--
  • Evaluated with InformationRetrievalEvaluator
Metric bm-full--matryoshka_dim-768-- bm-full--matryoshka_dim-512-- bm-full--matryoshka_dim-256-- bm-full--matryoshka_dim-128--
dot_accuracy@1 0.4487 0.454 0.443 0.4388
dot_precision@1 0.4487 0.454 0.443 0.4388
dot_recall@1 0.0105 0.0105 0.0104 0.0102
dot_ndcg@1 0.4487 0.454 0.443 0.4388
dot_mrr@1 0.4487 0.454 0.443 0.4388
dot_map@100 0.26 0.2583 0.2511 0.2406

Training Details

Training Dataset

rozetka_positive_pairs

  • Dataset: rozetka_positive_pairs
  • Size: 6,316,261 training samples
  • Columns: query, text_positive, and text_negative
  • Approximate statistics based on the first 1000 samples:
    query text_positive text_negative
    type string string string
    details
    • min: 7 tokens
    • mean: 9.5 tokens
    • max: 14 tokens
    • min: 8 tokens
    • mean: 35.47 tokens
    • max: 225 tokens
    • min: 11 tokens
    • mean: 49.88 tokens
    • max: 270 tokens
  • Samples:
    query text_positive text_negative
    query: artis bags passage: Сумка Artis Bags арт. 985 201/4620 шкіряна Чорна passage: Навушники Marshall Mode Black (4090939)
    query: artis bags passage: Сумки Для кого Для женщин Материал Кожа Особенности С короткими ручками passage: Наушники Marshall Гарантия 24 месяца Тип наушников Вакуумные Тип подключения Проводные Цвет Black Вид Гарнитура Кабель Двухсторонний Количество грузовых мест 1 Страна регистрации бренда Великобритания Страна-производитель товара Китай Теги недорогие Теги Хорошие Теги В кредит Теги С хорошим микрофоном Импеданс, Ом 39 Микрофон Размещенный на проводе Тип гарантийного талона Гарантийный талон магазина Интерфейс подключения 3.5 мм (mini-Jack) Доставка Premium Доставка Доставка в магазины ROZETKA
    query: artis bags passage: Сумка Artis Bags арт. 985 201/4620 кожаная Черная passage: Наушники Marshall Mode Black (4090939)
  • Loss: sentence_transformers_training.model.matryoshka2d_loss.RZTKMatryoshka2dLoss with these parameters:
    {
        "loss": "RZTKMultipleNegativesRankingLoss",
        "n_layers_per_step": 1,
        "last_layer_weight": 1.0,
        "prior_layers_weight": 1.0,
        "kl_div_weight": 1.0,
        "kl_temperature": 0.3,
        "matryoshka_dims": [
            768,
            512,
            256,
            128
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": 1
    }
    

Evaluation Dataset

rozetka_positive_pairs

  • Dataset: rozetka_positive_pairs
  • Size: 66,462 evaluation samples
  • Columns: query, text_positive, and text_negative
  • Approximate statistics based on the first 1000 samples:
    query text_positive text_negative
    type string string string
    details
    • min: 6 tokens
    • mean: 8.64 tokens
    • max: 17 tokens
    • min: 8 tokens
    • mean: 41.44 tokens
    • max: 274 tokens
    • min: 13 tokens
    • mean: 55.01 tokens
    • max: 299 tokens
  • Samples:
    query text_positive text_negative
    query: духовой шкаф электрический passage: Вбудовані духові шафи Electrolux Гарантія 12 місяців офіційної гарантії від виробника Керування духовкою Механічні ручки + кнопки Кількість програм 9 Система очищення Емаль легкого очищення Колір духовки Чорне скло Клас енергоспоживання А Тип Електричний Об'єм, л 57 Тип гриля Електричний Кількість стекол дверцят 2 Додаткові функції Розморожування Додаткові функції Конвекція Додаткові функції Таймер Додаткові функції Багаторівневе приготування Напрямні для деко Телескопічні Кількість рівнів напрямних 1 Кількість вантажних місць 1 Країна реєстрації бренда Швеція Країна-виробник товару Польща Матеріал дверцят духовки Скло Матеріал панелі керування Скло теги компактні теги з грилем теги Можливість під'єднання до мережі 220-240 В Тип гарантійного талона Гарантійний талон магазина Тип гарантійного талона Оригінальний гарантійний талон Оснащення духовки Наявність вилки Оснащення духовки Дисплей Оснащення духовки Наявність шнура живлення Оснащення духовки Підсвітка Ширина, см 59.4 Дос... passage: Вбудовані духові шафи Gorenje Керування духовкою Механічні ручки Система очищення Емаль легкого очищення Колір духовки Чорний Об'єм, л 71
    query: духовой шкаф электрический passage: Вбудовані духові шафи Hansa Гарантія 12 місяців офіційної гарантії від виробника Керування духовкою Сенсорне управління Кількість програм 8 Система очищення Емаль легкого очищення Колір духовки Нержавіюча сталь Клас енергоспоживання А Тип Електричний Об'єм, л 62 Тип гриля Електричний Кількість стекол дверцят 3 Додаткові функції Конвекція Додаткові функції Розморожування Додаткові функції Таймер Напрямні для деко Знімні Кількість вантажних місць 1 Країна реєстрації бренда Польща Країна-виробник товару Польща теги недорогі теги з грилем теги Можливість під'єднання до мережі 220 В Тип гарантійного талона Гарантійний талон магазина Тип гарантійного талона Оригінальний гарантійний талон Оснащення духовки Підсвітка Оснащення духовки Дисплей Ширина, см 59.5 Доставка Premium Глибина, см 57.5 Функція НВЧ Ні passage: Вбудовані духові шафи Gorenje Керування духовкою Механічні ручки Система очищення Емаль легкого очищення Колір духовки Чорний Об'єм, л 71
    query: духовой шкаф электрический passage: Духовой шкаф электрический ELECTROLUX OCF5E50Z passage: Встраиваемая духовка Gorenje BO 74 SYB (F00184959)
  • Loss: sentence_transformers_training.model.matryoshka2d_loss.RZTKMatryoshka2dLoss with these parameters:
    {
        "loss": "RZTKMultipleNegativesRankingLoss",
        "n_layers_per_step": 1,
        "last_layer_weight": 1.0,
        "prior_layers_weight": 1.0,
        "kl_div_weight": 1.0,
        "kl_temperature": 0.3,
        "matryoshka_dims": [
            768,
            512,
            256,
            128
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": 1
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 44
  • per_device_eval_batch_size: 44
  • learning_rate: 2e-05
  • num_train_epochs: 10.0
  • warmup_ratio: 0.1
  • bf16: True
  • bf16_full_eval: True
  • tf32: True
  • dataloader_num_workers: 4
  • load_best_model_at_end: True
  • optim: adafactor
  • push_to_hub: True
  • hub_model_id: yklymchuk-rztk/multilingual-e5-base-matryoshka2d-mnr-triplets-1
  • hub_private_repo: True
  • prompts: {'query': 'query: ', 'text_positive': 'passage: ', 'text_negative': 'passage: '}
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 44
  • per_device_eval_batch_size: 44
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 10.0
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: True
  • fp16_full_eval: False
  • tf32: True
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: True
  • dataloader_num_workers: 4
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adafactor
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: True
  • resume_from_checkpoint: None
  • hub_model_id: yklymchuk-rztk/multilingual-e5-base-matryoshka2d-mnr-triplets-1
  • hub_strategy: every_save
  • hub_private_repo: True
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: {'query': 'query: ', 'text_positive': 'passage: ', 'text_negative': 'passage: '}
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional
  • ddp_static_graph: False
  • ddp_comm_hook: bf16
  • gradient_as_bucket_view: False
  • num_proc: 30

Training Logs

Click to expand
Epoch Step Training Loss Validation Loss bm-full_dot_ndcg@10 core-uk-title_dot_ndcg@10 core-ru-title_dot_ndcg@10 core-uk-options_dot_ndcg@10 core-ru-options_dot_ndcg@10 options-uk-title_dot_ndcg@10 options-ru-title_dot_ndcg@10 options-uk-options_dot_ndcg@10 options-ru-options_dot_ndcg@10 rusisms-uk-title_dot_ndcg@10 rusisms-ru-title_dot_ndcg@10 rusisms-uk-options_dot_ndcg@10 rusisms-ru-options_dot_ndcg@10 rusisms_corrected-uk-title_dot_ndcg@10 rusisms_corrected-ru-title_dot_ndcg@10 rusisms_corrected-uk-options_dot_ndcg@10 rusisms_corrected-ru-options_dot_ndcg@10 core_typos-uk-title_dot_ndcg@10 core_typos-ru-title_dot_ndcg@10 core_typos-uk-options_dot_ndcg@10 core_typos-ru-options_dot_ndcg@10 bm-full--matryoshka_dim-768--_dot_ndcg@1 bm-full--matryoshka_dim-512--_dot_ndcg@1 bm-full--matryoshka_dim-256--_dot_ndcg@1 bm-full--matryoshka_dim-128--_dot_ndcg@1
0.0500 1795 4.7182 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1000 3590 4.5199 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.1501 5385 3.8362 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2001 7180 2.8016 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.2501 8975 2.189 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3001 10770 1.8036 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.3501 12565 1.7904 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4001 14360 1.6164 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.4502 16155 1.481 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5002 17950 1.415 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.5502 19745 1.2574 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6002 21540 1.2004 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.6502 23335 1.1311 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7003 25130 1.0908 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.7503 26925 1.0433 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8003 28720 0.8632 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.8503 30515 0.8609 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9003 32310 0.8402 - - - - - - - - - - - - - - - - - - - - - - - - - -
0.9503 34105 0.7656 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.0341 35887 - 1.2434 - - - - - - - - - - - - - - - - - - - - - - - - -
1.0344 35900 0.7522 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.0844 37695 0.74 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.1344 39490 0.6738 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.1845 41285 0.5797 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.2345 43080 0.6072 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.2845 44875 0.5917 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.3345 46670 0.6029 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.3845 48465 0.6047 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.4346 50260 0.6073 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.4846 52055 0.6321 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.5346 53850 0.585 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.5846 55645 0.4956 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.6346 57440 0.5708 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.6846 59235 0.5781 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.7347 61030 0.5594 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.7847 62825 0.4466 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.8347 64620 0.4245 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.8847 66415 0.466 - - - - - - - - - - - - - - - - - - - - - - - - - -
1.9347 68210 0.4291 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.0188 70005 0.4651 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.0681 71774 - 0.8806 - - - - - - - - - - - - - - - - - - - - - - - - -
2.0688 71800 0.4457 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.1188 73595 0.4547 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.1689 75390 0.3595 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.2189 77185 0.4099 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.2689 78980 0.3797 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.3189 80775 0.4167 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.3689 82570 0.4124 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.4190 84365 0.4144 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.4690 86160 0.4403 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.5190 87955 0.4336 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.5690 89750 0.3897 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.6190 91545 0.3706 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.6690 93340 0.4204 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.7191 95135 0.4182 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.7691 96930 0.3547 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.8191 98725 0.325 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.8691 100520 0.3715 - - - - - - - - - - - - - - - - - - - - - - - - - -
2.9191 102315 0.3467 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.0032 104110 0.3521 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.0532 105905 0.3423 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.1022 107661 - 0.7951 - - - - - - - - - - - - - - - - - - - - - - - - -
3.1032 107700 0.3541 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.1533 109495 0.3345 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.2033 111290 0.2909 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.2533 113085 0.3176 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.3033 114880 0.3451 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.3533 116675 0.3512 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.4033 118470 0.3428 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.4534 120265 0.3407 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.5034 122060 0.3849 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.5534 123855 0.3454 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.6034 125650 0.3284 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.6534 127445 0.3666 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.7035 129240 0.3904 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.7535 131035 0.3468 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.8035 132830 0.2853 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.8535 134625 0.319 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.9035 136420 0.3156 - - - - - - - - - - - - - - - - - - - - - - - - - -
3.9535 138215 0.2905 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.0376 140010 0.3396 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.0876 141805 0.3094 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.1362 143548 - 0.7525 - - - - - - - - - - - - - - - - - - - - - - - - -
4.1377 143600 0.2949 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.1877 145395 0.279 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.2377 147190 0.28 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.2877 148985 0.2914 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.3377 150780 0.3215 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.3877 152575 0.326 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.4378 154370 0.3206 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.4878 156165 0.3597 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.5378 157960 0.3285 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.5878 159755 0.2738 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.6378 161550 0.3344 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.6879 163345 0.3507 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.7379 165140 0.3521 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.7879 166935 0.2629 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.8379 168730 0.2733 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.8879 170525 0.2918 - - - - - - - - - - - - - - - - - - - - - - - - - -
4.9379 172320 0.2779 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.0220 174115 0.3059 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.0720 175910 0.2997 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.1220 177705 0.2886 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.1703 179435 - 0.7682 - - - - - - - - - - - - - - - - - - - - - - - - -
5.1721 179500 0.2533 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.2221 181295 0.2655 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.2721 183090 0.2668 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.3221 184885 0.2968 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.3721 186680 0.3087 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.4222 188475 0.3053 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.4722 190270 0.3372 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.5222 192065 0.3174 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.5722 193860 0.2929 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.6222 195655 0.3049 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.6722 197450 0.3375 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.7223 199245 0.3396 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.7723 201040 0.279 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.8223 202835 0.2344 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.8723 204630 0.304 - - - - - - - - - - - - - - - - - - - - - - - - - -
5.9223 206425 0.2854 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.0064 208220 0.317 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.0564 210015 0.2836 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.1064 211810 0.302 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.1565 213605 0.2718 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.2043 215322 - 0.7379 - - - - - - - - - - - - - - - - - - - - - - - - -
6.2065 215400 0.2576 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.2565 217195 0.2687 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.3065 218990 0.2788 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.3565 220785 0.2918 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.4066 222580 0.293 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.4566 224375 0.3115 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.5066 226170 0.3374 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.5566 227965 0.3042 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.6066 229760 0.2823 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.6566 231555 0.3268 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.7067 233350 0.333 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.7567 235145 0.2954 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.8067 236940 0.2446 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.8567 238735 0.2899 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.9067 240530 0.2927 - - - - - - - - - - - - - - - - - - - - - - - - - -
6.9568 242325 0.2843 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.0408 244120 0.2901 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.0908 245915 0.3083 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.1409 247710 0.272 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.1909 249505 0.2518 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.2384 251209 - 0.7776 - - - - - - - - - - - - - - - - - - - - - - - - -
7.2409 251300 0.2601 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.2909 253095 0.281 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.3409 254890 0.3133 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.3909 256685 0.3012 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.4410 258480 0.2946 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.4910 260275 0.343 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.5410 262070 0.309 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.5910 263865 0.2875 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.6410 265660 0.3154 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.6911 267455 0.3356 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.7411 269250 0.3539 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.7911 271045 0.2475 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.8411 272840 0.2732 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.8911 274635 0.2789 - - - - - - - - - - - - - - - - - - - - - - - - - -
7.9411 276430 0.2692 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.0252 278225 0.324 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.0752 280020 0.3077 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.1253 281815 0.2825 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.1753 283610 0.2724 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.2253 285405 0.2644 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.2724 287096 - 0.7273 - - - - - - - - - - - - - - - - - - - - - - - - -
8.2753 287200 0.2588 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.3253 288995 0.3016 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.3753 290790 0.31 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.4254 292585 0.3271 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.4754 294380 0.3393 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.5254 296175 0.3362 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.5754 297970 0.2951 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.6254 299765 0.3243 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.6755 301560 0.3467 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.7255 303355 0.3578 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.7755 305150 0.2908 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.8255 306945 0.2558 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.8755 308740 0.3131 - - - - - - - - - - - - - - - - - - - - - - - - - -
8.9255 310535 0.2991 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.0096 312330 0.324 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.0596 314125 0.288 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.1096 315920 0.3169 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.1597 317715 0.2805 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.2097 319510 0.2712 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.2597 321305 0.2802 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.3065 322983 - 0.7629 - - - - - - - - - - - - - - - - - - - - - - - - -
9.3097 323100 0.2942 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.3597 324895 0.3167 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.4098 326690 0.3191 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.4598 328485 0.3341 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.5098 330280 0.3575 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.5598 332075 0.3174 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.6098 333870 0.2958 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.6598 335665 0.3729 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.7099 337460 0.3729 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.7599 339255 0.304 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.8099 341050 0.2676 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.8599 342845 0.3209 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.9099 344640 0.3038 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.9600 346435 0.3076 - - - - - - - - - - - - - - - - - - - - - - - - - -
9.9659 346650 - - 0.4313 0.5182 0.5263 0.4025 0.4092 0.5730 0.5721 0.4686 0.4720 0.5236 0.5347 0.3737 0.3753 0.6408 0.6373 0.5106 0.5006 0.4262 0.4295 0.2981 0.3025 0.4487 0.4540 0.4430 0.4388
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.11.10
  • Sentence Transformers: 3.3.0
  • Transformers: 4.46.3
  • PyTorch: 2.5.1+cu124
  • Accelerate: 1.1.1
  • Datasets: 3.1.0
  • Tokenizers: 0.20.3

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
Downloads last month
8
Safetensors
Model size
278M params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for yklymchuk-rztk/multilingual-e5-base-matryoshka2d-mnr-triplets-1

Quantized
(6)
this model

Evaluation results