seongil-dn
commited on
Add new SentenceTransformer model
Browse files- .gitattributes +1 -0
- 1_Pooling/config.json +10 -0
- README.md +765 -0
- config.json +28 -0
- config_sentence_transformers.json +10 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +51 -0
- tokenizer.json +3 -0
- tokenizer_config.json +62 -0
.gitattributes
CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 1024,
|
3 |
+
"pooling_mode_cls_token": true,
|
4 |
+
"pooling_mode_mean_tokens": false,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,765 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
tags:
|
3 |
+
- sentence-transformers
|
4 |
+
- sentence-similarity
|
5 |
+
- feature-extraction
|
6 |
+
- generated_from_trainer
|
7 |
+
- dataset_size:451949
|
8 |
+
- loss:CachedGISTEmbedLoss
|
9 |
+
base_model: BAAI/bge-m3
|
10 |
+
widget:
|
11 |
+
- source_sentence: 타 지자체에 비해 압도적으로 귀어가구가 많은 것으로 집계된 지역은 어디야?
|
12 |
+
sentences:
|
13 |
+
- "나)금융상품판매전문업 도입의 목적\n□ 금융상품판매전문업의 도입은 다음 세 가지를 목적으로 함. \n― 첫째, 금융상품판매제도를 공급자 중심에서\
|
14 |
+
\ 수요자중심으로 전환. \n― 둘째, 판매조직의 다양화를 통한 금융산업의 효율성을 제고. \n― 셋째, 금융소비자의 입장에서 금융상품을 판매하는\
|
15 |
+
\ 판매전문조직의 육성을 통하여 금융소비자 보호제도의 실효성을 확보하기 위한 제도적 기초를 확보. □ 금융소비자의 입장을 고려하는 판매조직의\
|
16 |
+
\ 활성화를 통하여 금융소비자보호체계를 금융상품 제조자에 의한 “불완전판매˝(mis―selling)의 규제에서 금융소비자에 의한 ˝불완전구매˝(mis―buying)의\
|
17 |
+
\ 방지로의 전환을 위한 제도적 기초를 구축할 수 있을 것임."
|
18 |
+
- '2. 최근의 귀농·귀촌 동향
|
19 |
+
|
20 |
+
농림축산식품부·해양수산부·통계청이 지난 해 6월에 발표한 “귀농어·귀촌인 통계”에 따르면 2016년에 귀농·귀촌을 택해 농촌으로 이주한 도시가구는
|
21 |
+
33만 5,383가구(49만 6,048명)였다. 지난 1년간 5,860가구(17,156명) 늘어났다. 이 가운데 귀농가구는 전체의 3.8%인
|
22 |
+
12,875가구, 그리고 귀촌가구는 전체의 96.2%인 322,508가구였다. 귀농과 귀촌은 지역적으로 차이를 나타내 귀농의 경우 2016년
|
23 |
+
경북이 2,323가구(18.0%)로 가장 많고, 그 다음은 전남 1,923가구, 경남 1,631가구의 순인데 반해, 귀촌은 경기가 85,441가구(26.5%),
|
24 |
+
경남 37,732가구, 경북 37,261가구의 순이었다. 연령에도 차이를 보이고 있다. 귀농의 경우 50대가 39.9%로 가장 큰 비중을 차지하고,
|
25 |
+
그 다음은 60대 25.4%로 50대 이상 고령층이 71.3%이고, 40대 이하 젊은 층은 28.7%에 불과하였다. 반면에 귀촌의 경우에는
|
26 |
+
40대 이하가 63.9%이고, 50대 이상은 36.1%로 귀농과 달리 젊은 층이 큰 비중을 차지하였다.'
|
27 |
+
- 농림축산식품부・해양수산부・통계청이 공동으로 작성・발간한 “2015년 귀농어귀촌인 통계”에 따르면 2015년 귀어가구는 총 991가구로 2013년
|
28 |
+
650구, 2014년 917가구에서 매년 증가 추세이다. 991개 귀어가구 중 1인 가구가 전체 가구의 70.4%(698가구)이며, 2인 가구가
|
29 |
+
19.1%(189가구), 3인 가구가 4.8%(57가구), 4인 이상 가구가 4.7%(47가구)이며, 가구당 평균 귀어가구원수는 1.46명으로
|
30 |
+
나타났다. 지역별로는 전남이 343가구(34.6%), 충남이 340가구(34.3%)로 타 지자체에 비해 압도적으로 귀어가구가 많은 것으로 집계되었다.
|
31 |
+
이들 지역의 귀어가구가 많은 것은 전남의 경우 어선어업과 양식업 세력이 많은 지역적 특성이 귀어 확대로 연결된 것으로 보인다. 충남의 경우
|
32 |
+
수도권에서 가까워 지리적 접근성이 용이하고, 어촌체험마을, 낚시어선업 등의 활성화로 귀어인들이 타 지자체에 비해 상대적으로 선호도가 높은 것으로
|
33 |
+
판단된다.
|
34 |
+
- source_sentence: 고전 음악에 있어서 세계적 메카라 불릴 만큼 찬란한 유산과 전통을 지닌 나라는 어디야?
|
35 |
+
sentences:
|
36 |
+
- 이번 한・러 정상회담에서는 또한 신정부가 추진하는 ‘한반도 신경제지도 구상’의 구체화 측면에서도 의미 있는 성과를 도출했다. 양국은 북한 참여를
|
37 |
+
통한 남~북~러 3각 협력 사업의 이행 의지를 재천명했으며, 양 정상은 3각 협력 사업이 경제적 호혜뿐만 아니라 한반도의 신뢰와 안정을 구축하는
|
38 |
+
데에도 기여할 것이란 점을 재확인했다. 위와 같은 한・러 정상회담의 성과를 가시화하기 위해 후속조치로 이번 동방경제포럼에서 제안된 ‘9 브릿지(9
|
39 |
+
Bridges)’ 전략을 해양수산 분야에서 구체화할 필요가 있다. 우선 3항(부산항, 나진항, 블라디보스토크항), 3거점(훈춘, 나데즈딘스카야,
|
40 |
+
하바롭스크), 3통로 (부산항을 공통 거점으로한 ① 나진항~훈춘 해상루트, ② 나진~핫산 철도루트, ③ 블라디보스토크~하바롭스크의 해상루트와
|
41 |
+
TKR~TSR 철도 연결루트)의 ‘3~3~3’ 전략을 적극 추진할 필요가 있다.
|
42 |
+
- 슬로바키아 국민은 전통음악에 대한 자부심이 강하며, 음악의 기원은 슬라브족과 유럽인들의 민속음악이며 15~16세기 종교음악의 기원인 모라비아
|
43 |
+
왕국의 예배식에서 전례를 찾을 수 있다. 음악은 종교음악과 실내악의 영향을 크게 받��으며, 민속음악은 헝가리 통치하에서 슬로바키아 언어를 보존하는
|
44 |
+
데 큰 힘이 되었다. 전통악기로는 목관피리 종류인 푸야라(Fujara), 백파이프인 가이디(Gajdy), 양치기 플루트인 콘코우카(Konkovka)
|
45 |
+
등이 있다. 목공예, 도자기공예, 유리공예 등 전통 민속예술 중 특히 14세기부터 모드라지역의 ‘Majolika’ 도자기공예가 유명하다. 부드러운
|
46 |
+
곡선과 노란색, 파란색을 이용해 생활필수품을 만든다. 또한 목재 교회 건축물은 슬로바키아만의 독특한 건축양식이다. 전국 각지에서 민속 음악가들과
|
47 |
+
무용수들이 한자리에 모이는 전통축제인 비호드나 민속 축제(Východná Folklore Festival), 폴라냐 민속 축제(Folklórne
|
48 |
+
Slávnosti pod Poľanou)는 7~8월경에 열린다.
|
49 |
+
- 오스트리아는 하이든, 모차르트, 베토벤, 슈베르트, 브람스, 브루크너, 리스트 등 유수한 세계적 음악가들의 출생지 또는 활동 무대로 유명하며,
|
50 |
+
고전 음악에 있어서는 세계적 메카라 불릴 만큼 찬란한 유산 및 전통을 지니고 있다. 매년 6월의 빈 음악제, 7~8월의 잘츠부르크와 브레겐츠
|
51 |
+
음악제, 8월의 레흐, 9월의 린츠 브루크너 음악제 등 전국 각지에서 연중 음악제가 개최된다. 오페라는 Staatsoper, Volksoper,
|
52 |
+
Burgtheater를 중심으로 한 빈 음악의 상징이라 할 수 있으며, Staatsoper는 Franz Josef 1세에 의해 1869년 개관된
|
53 |
+
유럽 3대 오페라 극장 중 하나로 좌석 2,500여 석, 연중 300여 작품이 공연되며 종사 인원도 5천여 명에 이른다. 빈 필하모닉 오케스트라가
|
54 |
+
오페라 연주를 담당하는 것으로도 유명하다. 빈 필하모닉 오케스트라는 구스타프 말러, 리하르트 슈트라우스, 헤르베르트 폰 카라얀으로 이어지면서
|
55 |
+
세계적인 오케스트라로 자리 잡았다.
|
56 |
+
- source_sentence: 서로 다른 조직들로 통합된 조직의 상승 효과를 어떤 활동으로 단기간에 만들 수 있을까?
|
57 |
+
sentences:
|
58 |
+
- '첫째, 대상 기관 간에 상호 협력이 필수 조건이 된다는 인식의 형성은 성공적인 통합을 위해 매우 중요한 요인이 된다. 따라서 통합을 본격적으로
|
59 |
+
추진하기 전 단계에서 해당 기관 관계자들에게 왜 통합을 추진하며, 통합이 주는 성과는 무엇인지를 명확하게 설명해 주고 공감대를 형성하는 일이
|
60 |
+
중요하다. 둘째, 통합을 자발적으로 할 것인지 또는 외부 요인에 따라 할 것인지를 결정하여 추진할 필요가 있다. 이와 관련된 통합 추진방식에는
|
61 |
+
‘하향식(Top-down)’ 추진방식과 ‘상향식(Bottom-up)’ 추진방식이 있다. 전자는 정부가 주도하는 방식이고, 후자는 대상 기관들이
|
62 |
+
자율적으로 추진하는 방식이다. Skodvin(1999 : 70)에 따르면, 하향식 방식은 대부분 국가에서 활용하는 가장 일반적인 사례이지만
|
63 |
+
종종 정책 담당자와 고등교육기관 관계자 간에 상당한 긴장과 갈등을 유발한다. 이에 비해 일부 국가에서 적용한 상향식 방식은 순조롭고 성공적이었다.
|
64 |
+
이들 국가에서 상향식 방식을 활용하는 이유는 통합 대상 기관에서 일하는 당사자들 간의 합의(consensus)를 이끌어내기가 쉽고, 통합 후에는
|
65 |
+
이들 간에 공유된 정체성을 확보하기가 용이하기 때문이다.'
|
66 |
+
- <h1>IV. 실험 결과</h1> <p>제안하는 방법의 성능을 분석하기 위하여 기존에 균일한 도트 분포를 얻기 위해 제안된 세 가지 방법들과
|
67 |
+
비교 실험을 수행하였다. 먼저 제안하는 방법에 의해 얻어진 이진 영상에서 소수화소들 간의 거리가 주거리와 얼마나 일치하는지를 실험하였다. 이
|
68 |
+
실험의 목적은 균일한 도트 분포의 정도를 수치적으로 평가하기 위한 것이다. 128부터 255의 계조 각각에 대하여 \( 256 \times
|
69 |
+
256 \)의 크기를 갖는 단일 계조 영상을 생성하였다. 각각의 단일 계조 영상을 제안하는 방법과 기존의 세 가지 방법에 의해 이진화 하였다.
|
70 |
+
즉, 네 가지 방법에 대하여 각각 128부터 255까지의 128개의 이진 영상들이 만들어졌다. Marcu의 방법을 적용할 때는[17]에 정의된
|
71 |
+
상위 9 라인의 검색 영역 및 순서에 준하여 이진화를 수행하였다. 모든 영상(128개의 영상 4가지 방법 = 512개의 영상)에 대하여 아래의
|
72 |
+
식 (11)에 정의된 \( D_{x} \)를 계산하였다. \ ( D_{x} \)는 이진 영상내에 존재하는 모든 소수화소들간의 최소거리와 주거리의
|
73 |
+
차이의 제곱을 평균한 것으로서 이진 영상에서 소수화소들간의 거리가 주거리와 얼마나 일치하는가를 나타내는 척도이다. </p> <p>\( D_{x}=\frac{1}{N_{x}}
|
74 |
+
\sum_{k=1}^{N_{x}}\left\{d_{\min }^{B}(k)-\lambda_{x}\right\}^{2} \)<caption>(11)</caption></p>
|
75 |
+
<p>여기서 \( N_{x} \)는 \( x \)라는 단일 계조를 나타내는 이진영상에서의 소수 화소들의 개수를 나타낸다. \ ( d_{\min
|
76 |
+
}^{B}(k) \)는 이진영상 내의 \( k \)번째 소수화소에 대한 최소화소거리를 나타낸다. 즉, 주어진 소수화소와 가장 가까운 소수화소간의
|
77 |
+
거리를 의미한다. 이상적으로 소수화소들간의 최소거리는 주거리를 만족하여야 한다. 따라서, 식 (11)에서는 \( d_{\text {min }}^{B}(k)
|
78 |
+
\)와 주거리 \( x \)의 차이를 제곱하여 평균하였다. 식 (11)의 \( D_{x} \)를 128과 255사이의 계조 각각에 대하여 계산하였으며
|
79 |
+
이 과정을 4가지 방법에 대해 동일하게 수행하였다. </p> <p>그림 5는 4가지 방법에 대한 계조별 \( D_{x} \)값을 나타낸다.
|
80 |
+
참고로 0부터 127까지의 \( D_{x} \)값은 128에 대하여 대칭이다. 도트의 균일한 분포 정도는 밝은 계조(highlight)나 어두운
|
81 |
+
계조(shadow)에서 인간 시각에 민감하게 인식된다. 그림 5에서 보듯이 기존의 세 가지 방법들은 밝은 계조에서 제안하는 방법에 비해 상대적으로
|
82 |
+
큰 \( D_{x} \)값을 나타내는 것을 알 수 있다. \ ( D_{x} \)가 큰 값을 나타낸다는 것은 이진 영상에서 소수화소들의 공백(void)이나
|
83 |
+
밀집(cluster)영역이 존재함을 의미한다. </p> <p>표 2는 그림 5에서 계조별로 계산된 결과를 평균한 값들을 나타낸다. 표 2에서
|
84 |
+
보듯이 제안하는 방법에서 소수화소들간의 거리가 주거리를 가장 잘 나타냄을 확인할 수 있다. </p> <table border><caption>표
|
85 |
+
2. 네 가지 방법에 대한 계조별 \( \mathrm{Dx} \)값의 평균</caption> <tbody><tr><td>방법</td><td>Eschbach</td><td>Karg</td><td>MarcuI</td><td>제안하는
|
86 |
+
방법</td></tr><tr><td>\( E\left[D_{x}\right] \)</td><td>0.5940</td><td>0.3347</td><td>0.7476</td><td>0.2439</td></tr></tbody></table>
|
87 |
+
- '이러한 조직진단이 정부 및 공공부문에 본격적으로 도입된 것은 김대중 대통령 때로, 경영진단 등의 이름으로 정부조직에 대한 진단 등이 이루어졌으며
|
88 |
+
민간의 컨설팅 회사들이 정부 부처 및 공공기관에 대한 진단을 수행하였다. 김대중 정부 이후로는 공공부문에서의 조직진단도 더 이상 낯선 제도가
|
89 |
+
아니며, 노무현 정부 당시에는 행정자치부에 이를 전담하는 정부조직이 한시적으로 별도로 존재하였으며 당시 정부에서 조직진단 관련 매뉴얼도 발간하였다.
|
90 |
+
조직진단 및 이를 바탕으로 한 조직 개편 사례들은 오늘날까지도 정부 부처와 공공부문에서 상당히 빈번하게 이루어지고 있다. 한편 조직융합관리(PMI)는
|
91 |
+
“업무방식과 조직문화 등 제반 환경이 서로 다른 조직들로 통합된 조직이 시너지 효과를 단기간 내에 창출할 수 있도록 통합 후 체계적으로 관리하는
|
92 |
+
활동”이다(행정안전부, 2008: 2). 조직 통합이나 개편이라는 물리적인 현상보다 실질적으로 조직 내부에서 통합과 융합이 이루어지는가를 분석하고
|
93 |
+
이를 위한 관리기법을 제안하는 분야가 조직융합관리(PMI)이다.'
|
94 |
+
- source_sentence: 무엇이 자유민주적 기본질서처럼 자유주의와 민주주의 사상을 따르고 있지?
|
95 |
+
sentences:
|
96 |
+
- 한편 ‘자유민주적 기본질서’는 어의상 자유주의와 민주주의를 토대로 하는 기본질서를 뜻하는데, 공산주의이념 역시 자유주의와 민주주의를 추구한다는
|
97 |
+
점에서 일견 마르크스주의(공산주의)를 배격하지 않는 것으로 비춰질 수도 있다. 그러나 헌법재판소는 현행 국가보안법상 처벌되는 ‘자유민주적 기본질서에
|
98 |
+
위해를 끼치는 행위’에 관하여 “모든 폭력적 지배와 자의적 지배 즉 반국가단체의 일인독재 내지 일당독재를 배제하고 다수의 의사에 의한 국민의
|
99 |
+
자치, 자유・평등의 기본원칙에 의한 법치주의적 통치질서의 유지를 어렵게 만드는 것으로서 구체적으로는 기본적 인권의 존중, 권력분립, 의회제도,
|
100 |
+
복수정당제도, 선거제도, 사유재산과 시장경제를 골간으로 한 경제질서 및 사법권의 독립 등 우리의 내부체재를 파괴・변혁시키려는 것”으로 폭넓게
|
101 |
+
정의내리고 있다.
|
102 |
+
- □ 지하수이용부담금의 경우, 전국 226개 지자체 중 84개 지자체(37.1%)만이 부과·징수하고 있어, 지하수의 체계적인 관리를 위한 재원이
|
103 |
+
부족한 상태임([표 13] 참조) <br>○ 지하수이용부담금을 부과·징수하는 지자체가 적은 이유는 지하수이용부담금 자체가 낮게 책정되어, 제도운영에
|
104 |
+
소요되는 인력 및 예산 등의 행정비용이 징수금을 초과하기 때문인 것으로 보임 <br>○ 특히 지하수의 용도 중 ���방·군사용, 민방위용, 비상급수용,
|
105 |
+
농어업용, 상수도용, 일반수도사업용, 학교용, 가정용 및 먹는샘물용·온천용 등은 지하수이용부담금 부과대상에서 제외되어, 실제로 부담금을 징수할
|
106 |
+
수 있는 대상은 일반생활용 및 공업용 지하수에 불과함<br>- 특히 전체 지하수 이용량의 절반을 넘는 농업용 지하수(51.7%)가 지하수이용부담금을
|
107 |
+
면제받고 있어, 재원을 조성하기 어려운 구조임 <br>○ 즉 지하수이용부담금은 현실을 반영하지 못한 수준으로 낮게 책정되어 있고, 징수대상도
|
108 |
+
일부 시설로 한정되어 있어 지하수 관련 업무 수행을 위한 재원 마련에 한계가 있음
|
109 |
+
- 통일헌법의 근본 원리를 자유민주적 기본 질서라고 할 때 자유민주적 기본 질서를 어떻게 이해하느냐가 중요한 과제로 등장한다. 헌법재판소(이하,
|
110 |
+
‘헌재’라고 함)는 2001년 “국가권력의 간섭을 배제하고, 개인의 자유와 창의를 존중하며 다양성을 포용하는 자유주의와 국가권력이 국민에게
|
111 |
+
귀속되고, 국민에 의한 지배가 이루어지는 것을 내용적 특징으로 하는 민주주의가 결합된 개념인 자유민주주의”라고 결정하였다. 즉, 자유민주적
|
112 |
+
기본 질서를 자유주의와 민주주의의 결합이라고 본 것이다. 한편, 과도기 이중체제에서 사회보장제도를 설계함에 있어서 자유민주주의를 복지국가의
|
113 |
+
원리와 어떻게 결합시킬지는 논의의 시발점이다. 헌재는 복지국가(사회국가)에 대해서 “사회 정의의 이념을 헌법에 수용한 국가, 사회 현상에 대하여
|
114 |
+
방관적인 국가가 아니라 경제・사회・문화의 모든 영역에서 정의로운 사회 질서의 형성을 위하여 사회 현상에 관여하고 간섭하고 분배하고 조정하는
|
115 |
+
국가”로 정의하고 있다. 또한 복지국가는 “궁극적으로는 국민 각자가 실제로 자유를 행사할 수 있는 그 실질적 조 건을 마련해 줄 의무가 있는
|
116 |
+
국가”라고 결정하였다.
|
117 |
+
- source_sentence: 1970년대 경제위기 상황으로 사회복지가 위기를 맞으며 사회적 경제 운동이 일어나1990년대 후반부터 사회적 기업이
|
118 |
+
시작된 나라는 어디야?
|
119 |
+
sentences:
|
120 |
+
- 제2차 세계대전 이후 1950년대와 1960년대 거치면서 경제성장을 기반으로 정부지출의 지속적인 증가와 복지에 대한 사회적 합의는 다수 산업의
|
121 |
+
국유화와 그에 따른 공공부분의 확대, 사회복지의 확대를 가능하게 하였다. 그러나 1970년대 경제위기 상황은 사회복지의 위기를 가져왔고 1980년대의
|
122 |
+
경기침체는 더 이상 복지지출의 확대를 허락하지 않는 ‘외부충격’이 있었다. 현대적 의미에서 사회적 기업은 1970년대부터의 노동자 협동조합,
|
123 |
+
신용조합, 지역사회 상점(community shop), 개발신탁, 지역사회 비즈니스 운동, 노동통합(work integration) 운동 등
|
124 |
+
‘사회적 경제’ 운동에서 시작하였다고 한다. 영국 사회에 나타난 이와 같은 일련의 사건들은 복지국가 위기로 인식되었다. 한편으로는 이러한 사건들이
|
125 |
+
이전 18세기부터 발달해 왔던 협동조합, 상호공제조합, 자선단체와 같은 활동의 역할이 더욱 중요하게 부각되는 계기가 되기도 하였다. 영국에서는
|
126 |
+
1990년대 후반부터 이루어진 노동당의 집권이 현대적인 의미의 사회적 경제와 사회적 기업의 발전, 나아가 제도화에 큰 영향을 주었다.
|
127 |
+
- 국토해양부는 2006년 부산·경남지역의 11개 컨테이너 전용터미널에 RFID/USN 기반의 게이트자동화시스템을 구축하였고, 2007년에는 광양·인천지역
|
128 |
+
등 10개소에 확대 구축하여 전국 컨테이너 항만에도 확대하여 지능형 u-Port 시스템을 구축하였다. 하지만 2006년에 부착한 13,500여
|
129 |
+
개의 컨테이너 차량용 태그 인식율이 93% 수준에 그쳐, 이를 보완하고 3,000여 대에 추가 부착하여 고도화하기 위해 2단계 사업인 “컨테
|
130 |
+
이너터미널 RFID 기반 게이트 자동화시스템 고도화 사업”을 실시하였다. ㈜KL-Net이 2009년 8월부터 12월까지 2단계 사업을 주관하였으며,
|
131 |
+
차량 RFID 시스템 국제표준화, 컨테이너 RFID 시스템 재배치, 온라인 전자태그 발급체제 구축, 전자태그 성능강화 표준화를 추진하였다.
|
132 |
+
- 'Ⅰ. 서론
|
133 |
+
|
134 |
+
최근 일부 국가에서 2008년 글로벌 금융위기를 겪으면서 사회적경제의 역할과 기능에 대하여 전반적인 관심이 높아지면서 사회적경제의 활성화가
|
135 |
+
여러 국가들이 직면한 사회적・경제적 문제의 해결에 기여할 것이라는 사회적 공감대가 형성되었다 (권재열, 2015). 이에 스페인, 멕시코,
|
136 |
+
에콰도르, 포르투갈, 프랑스와 캐나다의 퀘벡주 등에서 사회적경제기본법이 제정되어 시행되고 있다. 각국의 사회적경제기본법은 사회적경제의 정체성
|
137 |
+
규정을 위한 법적 틀을 제공하고, 사회적경제에 대한 포괄적인 지원 및 촉진 정책을 제공하고 있다.'
|
138 |
+
pipeline_tag: sentence-similarity
|
139 |
+
library_name: sentence-transformers
|
140 |
+
---
|
141 |
+
|
142 |
+
# SentenceTransformer based on BAAI/bge-m3
|
143 |
+
|
144 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
145 |
+
|
146 |
+
## Model Details
|
147 |
+
|
148 |
+
### Model Description
|
149 |
+
- **Model Type:** Sentence Transformer
|
150 |
+
- **Base model:** [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3) <!-- at revision 5617a9f61b028005a4858fdac845db406aefb181 -->
|
151 |
+
- **Maximum Sequence Length:** 1024 tokens
|
152 |
+
- **Output Dimensionality:** 1024 tokens
|
153 |
+
- **Similarity Function:** Cosine Similarity
|
154 |
+
<!-- - **Training Dataset:** Unknown -->
|
155 |
+
<!-- - **Language:** Unknown -->
|
156 |
+
<!-- - **License:** Unknown -->
|
157 |
+
|
158 |
+
### Model Sources
|
159 |
+
|
160 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
161 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
162 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
163 |
+
|
164 |
+
### Full Model Architecture
|
165 |
+
|
166 |
+
```
|
167 |
+
SentenceTransformer(
|
168 |
+
(0): Transformer({'max_seq_length': 1024, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
169 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
170 |
+
(2): Normalize()
|
171 |
+
)
|
172 |
+
```
|
173 |
+
|
174 |
+
## Usage
|
175 |
+
|
176 |
+
### Direct Usage (Sentence Transformers)
|
177 |
+
|
178 |
+
First install the Sentence Transformers library:
|
179 |
+
|
180 |
+
```bash
|
181 |
+
pip install -U sentence-transformers
|
182 |
+
```
|
183 |
+
|
184 |
+
Then you can load this model and run inference.
|
185 |
+
```python
|
186 |
+
from sentence_transformers import SentenceTransformer
|
187 |
+
|
188 |
+
# Download from the 🤗 Hub
|
189 |
+
model = SentenceTransformer("seongil-dn/bge-m3-kor-retrieval-451949-bs128-finance-book-science-344")
|
190 |
+
# Run inference
|
191 |
+
sentences = [
|
192 |
+
'1970년대 경제위기 상황으로 사회복지가 위기를 맞으며 사회적 경제 운동이 일어나1990년대 후반부터 사회적 기업이 시작된 나라는 어디야?',
|
193 |
+
'제2차 세계대전 이후 1950년대와 1960년대 거치면서 경제성장을 기반으로 정부지출의 지속적인 증가와 복지에 대한 사회적 합의는 다수 산업의 국유화와 그에 따른 공공부분의 확대, 사회복지의 확대를 가능하게 하였다. 그러나 1970년대 경제위기 상황은 사회복지의 위기를 가져왔고 1980년대의 경기침체는 더 이상 복지지출의 확대를 허락하지 않는 ‘외부충격’이 있었다. 현대적 의미에서 사회적 기업은 1970년대부터의 노동자 협동조합, 신용조합, 지역사회 상점(community shop), 개발신탁, 지역사회 비즈니스 운동, 노동통합(work integration) 운동 등 ‘사회적 경제’ 운동에서 시작하였다고 한다. 영국 사회에 나타난 이와 같은 일련의 사건들은 복지국가 위기로 인식되었다. 한편으로는 이러한 사건들이 이전 18세기부터 발달해 왔던 협동조합, 상호공제조합, 자선단체와 같은 활동의 역할이 더욱 중요하게 부각되는 계기가 되기도 하였다. 영국에서는 1990년대 후반부터 이루어진 노동당의 집권이 현대적인 의미의 사회적 경제와 사회적 기업의 발전, 나아가 제도화에 큰 영향을 주었다.',
|
194 |
+
'Ⅰ. 서론\n최근 일부 국가에서 2008년 글로벌 금융위기를 겪으면서 사회적경제의 역할과 기능에 대하여 전반적인 관심이 높아지면서 사회적경제의 활성화가 여러 국가들이 직면한 사회적・경제적 문제의 해결에 기여할 것이라는 사회적 공감대가 형성되었다 (권재열, 2015). 이에 스페인, 멕시코, 에콰도르, 포르투갈, 프랑스와 캐나다의 퀘벡주 등에서 사회적경제기본법이 제정되어 시행되고 있다. 각국의 사회적경제기본법은 사회적경제의 정체성 규정을 위한 법적 틀을 제공하고, 사회적경제에 대한 포괄적인 지원 및 촉진 정책을 제공하고 있다.',
|
195 |
+
]
|
196 |
+
embeddings = model.encode(sentences)
|
197 |
+
print(embeddings.shape)
|
198 |
+
# [3, 1024]
|
199 |
+
|
200 |
+
# Get the similarity scores for the embeddings
|
201 |
+
similarities = model.similarity(embeddings, embeddings)
|
202 |
+
print(similarities.shape)
|
203 |
+
# [3, 3]
|
204 |
+
```
|
205 |
+
|
206 |
+
<!--
|
207 |
+
### Direct Usage (Transformers)
|
208 |
+
|
209 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
210 |
+
|
211 |
+
</details>
|
212 |
+
-->
|
213 |
+
|
214 |
+
<!--
|
215 |
+
### Downstream Usage (Sentence Transformers)
|
216 |
+
|
217 |
+
You can finetune this model on your own dataset.
|
218 |
+
|
219 |
+
<details><summary>Click to expand</summary>
|
220 |
+
|
221 |
+
</details>
|
222 |
+
-->
|
223 |
+
|
224 |
+
<!--
|
225 |
+
### Out-of-Scope Use
|
226 |
+
|
227 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
228 |
+
-->
|
229 |
+
|
230 |
+
<!--
|
231 |
+
## Bias, Risks and Limitations
|
232 |
+
|
233 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
234 |
+
-->
|
235 |
+
|
236 |
+
<!--
|
237 |
+
### Recommendations
|
238 |
+
|
239 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
240 |
+
-->
|
241 |
+
|
242 |
+
## Training Details
|
243 |
+
|
244 |
+
### Training Hyperparameters
|
245 |
+
#### Non-Default Hyperparameters
|
246 |
+
|
247 |
+
- `per_device_train_batch_size`: 128
|
248 |
+
- `learning_rate`: 3e-05
|
249 |
+
- `num_train_epochs`: 2
|
250 |
+
- `warmup_ratio`: 0.05
|
251 |
+
- `fp16`: True
|
252 |
+
- `batch_sampler`: no_duplicates
|
253 |
+
|
254 |
+
#### All Hyperparameters
|
255 |
+
<details><summary>Click to expand</summary>
|
256 |
+
|
257 |
+
- `overwrite_output_dir`: False
|
258 |
+
- `do_predict`: False
|
259 |
+
- `eval_strategy`: no
|
260 |
+
- `prediction_loss_only`: True
|
261 |
+
- `per_device_train_batch_size`: 128
|
262 |
+
- `per_device_eval_batch_size`: 8
|
263 |
+
- `per_gpu_train_batch_size`: None
|
264 |
+
- `per_gpu_eval_batch_size`: None
|
265 |
+
- `gradient_accumulation_steps`: 1
|
266 |
+
- `eval_accumulation_steps`: None
|
267 |
+
- `torch_empty_cache_steps`: None
|
268 |
+
- `learning_rate`: 3e-05
|
269 |
+
- `weight_decay`: 0.0
|
270 |
+
- `adam_beta1`: 0.9
|
271 |
+
- `adam_beta2`: 0.999
|
272 |
+
- `adam_epsilon`: 1e-08
|
273 |
+
- `max_grad_norm`: 1.0
|
274 |
+
- `num_train_epochs`: 2
|
275 |
+
- `max_steps`: -1
|
276 |
+
- `lr_scheduler_type`: linear
|
277 |
+
- `lr_scheduler_kwargs`: {}
|
278 |
+
- `warmup_ratio`: 0.05
|
279 |
+
- `warmup_steps`: 0
|
280 |
+
- `log_level`: passive
|
281 |
+
- `log_level_replica`: warning
|
282 |
+
- `log_on_each_node`: True
|
283 |
+
- `logging_nan_inf_filter`: True
|
284 |
+
- `save_safetensors`: True
|
285 |
+
- `save_on_each_node`: False
|
286 |
+
- `save_only_model`: False
|
287 |
+
- `restore_callback_states_from_checkpoint`: False
|
288 |
+
- `no_cuda`: False
|
289 |
+
- `use_cpu`: False
|
290 |
+
- `use_mps_device`: False
|
291 |
+
- `seed`: 42
|
292 |
+
- `data_seed`: None
|
293 |
+
- `jit_mode_eval`: False
|
294 |
+
- `use_ipex`: False
|
295 |
+
- `bf16`: False
|
296 |
+
- `fp16`: True
|
297 |
+
- `fp16_opt_level`: O1
|
298 |
+
- `half_precision_backend`: auto
|
299 |
+
- `bf16_full_eval`: False
|
300 |
+
- `fp16_full_eval`: False
|
301 |
+
- `tf32`: None
|
302 |
+
- `local_rank`: 0
|
303 |
+
- `ddp_backend`: None
|
304 |
+
- `tpu_num_cores`: None
|
305 |
+
- `tpu_metrics_debug`: False
|
306 |
+
- `debug`: []
|
307 |
+
- `dataloader_drop_last`: True
|
308 |
+
- `dataloader_num_workers`: 0
|
309 |
+
- `dataloader_prefetch_factor`: None
|
310 |
+
- `past_index`: -1
|
311 |
+
- `disable_tqdm`: False
|
312 |
+
- `remove_unused_columns`: True
|
313 |
+
- `label_names`: None
|
314 |
+
- `load_best_model_at_end`: False
|
315 |
+
- `ignore_data_skip`: False
|
316 |
+
- `fsdp`: []
|
317 |
+
- `fsdp_min_num_params`: 0
|
318 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
319 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
320 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
321 |
+
- `deepspeed`: None
|
322 |
+
- `label_smoothing_factor`: 0.0
|
323 |
+
- `optim`: adamw_torch
|
324 |
+
- `optim_args`: None
|
325 |
+
- `adafactor`: False
|
326 |
+
- `group_by_length`: False
|
327 |
+
- `length_column_name`: length
|
328 |
+
- `ddp_find_unused_parameters`: None
|
329 |
+
- `ddp_bucket_cap_mb`: None
|
330 |
+
- `ddp_broadcast_buffers`: False
|
331 |
+
- `dataloader_pin_memory`: True
|
332 |
+
- `dataloader_persistent_workers`: False
|
333 |
+
- `skip_memory_metrics`: True
|
334 |
+
- `use_legacy_prediction_loop`: False
|
335 |
+
- `push_to_hub`: False
|
336 |
+
- `resume_from_checkpoint`: None
|
337 |
+
- `hub_model_id`: None
|
338 |
+
- `hub_strategy`: every_save
|
339 |
+
- `hub_private_repo`: False
|
340 |
+
- `hub_always_push`: False
|
341 |
+
- `gradient_checkpointing`: False
|
342 |
+
- `gradient_checkpointing_kwargs`: None
|
343 |
+
- `include_inputs_for_metrics`: False
|
344 |
+
- `eval_do_concat_batches`: True
|
345 |
+
- `fp16_backend`: auto
|
346 |
+
- `push_to_hub_model_id`: None
|
347 |
+
- `push_to_hub_organization`: None
|
348 |
+
- `mp_parameters`:
|
349 |
+
- `auto_find_batch_size`: False
|
350 |
+
- `full_determinism`: False
|
351 |
+
- `torchdynamo`: None
|
352 |
+
- `ray_scope`: last
|
353 |
+
- `ddp_timeout`: 1800
|
354 |
+
- `torch_compile`: False
|
355 |
+
- `torch_compile_backend`: None
|
356 |
+
- `torch_compile_mode`: None
|
357 |
+
- `dispatch_batches`: None
|
358 |
+
- `split_batches`: None
|
359 |
+
- `include_tokens_per_second`: False
|
360 |
+
- `include_num_input_tokens_seen`: False
|
361 |
+
- `neftune_noise_alpha`: None
|
362 |
+
- `optim_target_modules`: None
|
363 |
+
- `batch_eval_metrics`: False
|
364 |
+
- `eval_on_start`: False
|
365 |
+
- `eval_use_gather_object`: False
|
366 |
+
- `batch_sampler`: no_duplicates
|
367 |
+
- `multi_dataset_batch_sampler`: proportional
|
368 |
+
|
369 |
+
</details>
|
370 |
+
|
371 |
+
### Training Logs
|
372 |
+
<details><summary>Click to expand</summary>
|
373 |
+
|
374 |
+
| Epoch | Step | Training Loss |
|
375 |
+
|:------:|:----:|:-------------:|
|
376 |
+
| 0.0047 | 1 | 1.2972 |
|
377 |
+
| 0.0094 | 2 | 1.7591 |
|
378 |
+
| 0.0142 | 3 | 1.5857 |
|
379 |
+
| 0.0189 | 4 | 1.3732 |
|
380 |
+
| 0.0236 | 5 | 1.4174 |
|
381 |
+
| 0.0283 | 6 | 1.4117 |
|
382 |
+
| 0.0330 | 7 | 1.2482 |
|
383 |
+
| 0.0377 | 8 | 1.4429 |
|
384 |
+
| 0.0425 | 9 | 1.1965 |
|
385 |
+
| 0.0472 | 10 | 0.9934 |
|
386 |
+
| 0.0519 | 11 | 0.8505 |
|
387 |
+
| 0.0566 | 12 | 0.7532 |
|
388 |
+
| 0.0613 | 13 | 0.7257 |
|
389 |
+
| 0.0660 | 14 | 0.5238 |
|
390 |
+
| 0.0708 | 15 | 0.4538 |
|
391 |
+
| 0.0755 | 16 | 0.4524 |
|
392 |
+
| 0.0802 | 17 | 0.4026 |
|
393 |
+
| 0.0849 | 18 | 0.4288 |
|
394 |
+
| 0.0896 | 19 | 0.3547 |
|
395 |
+
| 0.0943 | 20 | 0.3552 |
|
396 |
+
| 0.0991 | 21 | 0.2845 |
|
397 |
+
| 0.1038 | 22 | 0.3171 |
|
398 |
+
| 0.1085 | 23 | 0.2699 |
|
399 |
+
| 0.1132 | 24 | 0.2905 |
|
400 |
+
| 0.1179 | 25 | 0.2627 |
|
401 |
+
| 0.1226 | 26 | 0.268 |
|
402 |
+
| 0.1274 | 27 | 0.2205 |
|
403 |
+
| 0.1321 | 28 | 0.2374 |
|
404 |
+
| 0.1368 | 29 | 0.2653 |
|
405 |
+
| 0.1415 | 30 | 0.2517 |
|
406 |
+
| 0.1462 | 31 | 0.2145 |
|
407 |
+
| 0.1509 | 32 | 0.1949 |
|
408 |
+
| 0.1557 | 33 | 0.1515 |
|
409 |
+
| 0.1604 | 34 | 0.214 |
|
410 |
+
| 0.1651 | 35 | 0.213 |
|
411 |
+
| 0.1698 | 36 | 0.1739 |
|
412 |
+
| 0.1745 | 37 | 0.1588 |
|
413 |
+
| 0.1792 | 38 | 0.184 |
|
414 |
+
| 0.1840 | 39 | 0.1921 |
|
415 |
+
| 0.1887 | 40 | 0.1662 |
|
416 |
+
| 0.1934 | 41 | 0.1844 |
|
417 |
+
| 0.1981 | 42 | 0.1891 |
|
418 |
+
| 0.2028 | 43 | 0.1456 |
|
419 |
+
| 0.2075 | 44 | 0.1564 |
|
420 |
+
| 0.2123 | 45 | 0.131 |
|
421 |
+
| 0.2170 | 46 | 0.1636 |
|
422 |
+
| 0.2217 | 47 | 0.1528 |
|
423 |
+
| 0.2264 | 48 | 0.1491 |
|
424 |
+
| 0.2311 | 49 | 0.1432 |
|
425 |
+
| 0.2358 | 50 | 0.1399 |
|
426 |
+
| 0.2406 | 51 | 0.1683 |
|
427 |
+
| 0.2453 | 52 | 0.1757 |
|
428 |
+
| 0.25 | 53 | 0.1622 |
|
429 |
+
| 0.2547 | 54 | 0.1649 |
|
430 |
+
| 0.2594 | 55 | 0.1184 |
|
431 |
+
| 0.2642 | 56 | 0.1472 |
|
432 |
+
| 0.2689 | 57 | 0.146 |
|
433 |
+
| 0.2736 | 58 | 0.1387 |
|
434 |
+
| 0.2783 | 59 | 0.1527 |
|
435 |
+
| 0.2830 | 60 | 0.1333 |
|
436 |
+
| 0.2877 | 61 | 0.1349 |
|
437 |
+
| 0.2925 | 62 | 0.2007 |
|
438 |
+
| 0.2972 | 63 | 0.1548 |
|
439 |
+
| 0.3019 | 64 | 0.165 |
|
440 |
+
| 0.3066 | 65 | 0.1239 |
|
441 |
+
| 0.3113 | 66 | 0.1164 |
|
442 |
+
| 0.3160 | 67 | 0.1734 |
|
443 |
+
| 0.3208 | 68 | 0.1281 |
|
444 |
+
| 0.3255 | 69 | 0.1195 |
|
445 |
+
| 0.3302 | 70 | 0.1461 |
|
446 |
+
| 0.3349 | 71 | 0.1363 |
|
447 |
+
| 0.3396 | 72 | 0.1081 |
|
448 |
+
| 0.3443 | 73 | 0.1532 |
|
449 |
+
| 0.3491 | 74 | 0.1549 |
|
450 |
+
| 0.3538 | 75 | 0.1409 |
|
451 |
+
| 0.3585 | 76 | 0.1396 |
|
452 |
+
| 0.3632 | 77 | 0.0858 |
|
453 |
+
| 0.3679 | 78 | 0.121 |
|
454 |
+
| 0.3726 | 79 | 0.138 |
|
455 |
+
| 0.3774 | 80 | 0.1334 |
|
456 |
+
| 0.3821 | 81 | 0.1235 |
|
457 |
+
| 0.3868 | 82 | 0.1167 |
|
458 |
+
| 0.3915 | 83 | 0.1745 |
|
459 |
+
| 0.3962 | 84 | 0.1201 |
|
460 |
+
| 0.4009 | 85 | 0.1277 |
|
461 |
+
| 0.4057 | 86 | 0.1089 |
|
462 |
+
| 0.4104 | 87 | 0.1117 |
|
463 |
+
| 0.4151 | 88 | 0.11 |
|
464 |
+
| 0.4198 | 89 | 0.1604 |
|
465 |
+
| 0.4245 | 90 | 0.1312 |
|
466 |
+
| 0.4292 | 91 | 0.1368 |
|
467 |
+
| 0.4340 | 92 | 0.1338 |
|
468 |
+
| 0.4387 | 93 | 0.1464 |
|
469 |
+
| 0.4434 | 94 | 0.1442 |
|
470 |
+
| 0.4481 | 95 | 0.1281 |
|
471 |
+
| 0.4528 | 96 | 0.1296 |
|
472 |
+
| 0.4575 | 97 | 0.151 |
|
473 |
+
| 0.4623 | 98 | 0.1297 |
|
474 |
+
| 0.4670 | 99 | 0.1142 |
|
475 |
+
| 0.4717 | 100 | 0.119 |
|
476 |
+
| 0.4764 | 101 | 0.0956 |
|
477 |
+
| 0.4811 | 102 | 0.1049 |
|
478 |
+
| 0.4858 | 103 | 0.1294 |
|
479 |
+
| 0.4906 | 104 | 0.1102 |
|
480 |
+
| 0.4953 | 105 | 0.1172 |
|
481 |
+
| 0.5 | 106 | 0.1523 |
|
482 |
+
| 0.5047 | 107 | 0.0919 |
|
483 |
+
| 0.5094 | 108 | 0.1101 |
|
484 |
+
| 0.5142 | 109 | 0.1191 |
|
485 |
+
| 0.5189 | 110 | 0.1104 |
|
486 |
+
| 0.5236 | 111 | 0.0942 |
|
487 |
+
| 0.5283 | 112 | 0.1058 |
|
488 |
+
| 0.5330 | 113 | 0.1328 |
|
489 |
+
| 0.5377 | 114 | 0.1122 |
|
490 |
+
| 0.5425 | 115 | 0.1156 |
|
491 |
+
| 0.5472 | 116 | 0.1123 |
|
492 |
+
| 0.5519 | 117 | 0.0909 |
|
493 |
+
| 0.5566 | 118 | 0.1083 |
|
494 |
+
| 0.5613 | 119 | 0.1142 |
|
495 |
+
| 0.5660 | 120 | 0.1192 |
|
496 |
+
| 0.5708 | 121 | 0.1088 |
|
497 |
+
| 0.5755 | 122 | 0.1289 |
|
498 |
+
| 0.5802 | 123 | 0.1407 |
|
499 |
+
| 0.5849 | 124 | 0.1065 |
|
500 |
+
| 0.5896 | 125 | 0.1016 |
|
501 |
+
| 0.5943 | 126 | 0.1389 |
|
502 |
+
| 0.5991 | 127 | 0.1212 |
|
503 |
+
| 0.6038 | 128 | 0.1139 |
|
504 |
+
| 0.6085 | 129 | 0.1055 |
|
505 |
+
| 0.6132 | 130 | 0.0921 |
|
506 |
+
| 0.6179 | 131 | 0.0958 |
|
507 |
+
| 0.6226 | 132 | 0.1019 |
|
508 |
+
| 0.6274 | 133 | 0.0967 |
|
509 |
+
| 0.6321 | 134 | 0.1041 |
|
510 |
+
| 0.6368 | 135 | 0.1007 |
|
511 |
+
| 0.6415 | 136 | 0.1662 |
|
512 |
+
| 0.6462 | 137 | 0.0853 |
|
513 |
+
| 0.6509 | 138 | 0.1189 |
|
514 |
+
| 0.6557 | 139 | 0.1077 |
|
515 |
+
| 0.6604 | 140 | 0.12 |
|
516 |
+
| 0.6651 | 141 | 0.1352 |
|
517 |
+
| 0.6698 | 142 | 0.0953 |
|
518 |
+
| 0.6745 | 143 | 0.1173 |
|
519 |
+
| 0.6792 | 144 | 0.1082 |
|
520 |
+
| 0.6840 | 145 | 0.1283 |
|
521 |
+
| 0.6887 | 146 | 0.0978 |
|
522 |
+
| 0.6934 | 147 | 0.1187 |
|
523 |
+
| 0.6981 | 148 | 0.1247 |
|
524 |
+
| 0.7028 | 149 | 0.126 |
|
525 |
+
| 0.7075 | 150 | 0.0955 |
|
526 |
+
| 0.7123 | 151 | 0.1085 |
|
527 |
+
| 0.7170 | 152 | 0.0883 |
|
528 |
+
| 0.7217 | 153 | 0.1042 |
|
529 |
+
| 0.7264 | 154 | 0.1241 |
|
530 |
+
| 0.7311 | 155 | 0.0797 |
|
531 |
+
| 0.7358 | 156 | 0.1305 |
|
532 |
+
| 0.7406 | 157 | 0.1022 |
|
533 |
+
| 0.7453 | 158 | 0.097 |
|
534 |
+
| 0.75 | 159 | 0.108 |
|
535 |
+
| 0.7547 | 160 | 0.1111 |
|
536 |
+
| 0.7594 | 161 | 0.13 |
|
537 |
+
| 0.7642 | 162 | 0.1048 |
|
538 |
+
| 0.7689 | 163 | 0.1109 |
|
539 |
+
| 0.7736 | 164 | 0.0777 |
|
540 |
+
| 0.7783 | 165 | 0.081 |
|
541 |
+
| 0.7830 | 166 | 0.1077 |
|
542 |
+
| 0.7877 | 167 | 0.1025 |
|
543 |
+
| 0.7925 | 168 | 0.137 |
|
544 |
+
| 0.7972 | 169 | 0.0822 |
|
545 |
+
| 0.8019 | 170 | 0.0976 |
|
546 |
+
| 0.8066 | 171 | 0.1229 |
|
547 |
+
| 0.8113 | 172 | 0.1434 |
|
548 |
+
| 0.8160 | 173 | 0.1146 |
|
549 |
+
| 0.8208 | 174 | 0.1186 |
|
550 |
+
| 0.8255 | 175 | 0.1261 |
|
551 |
+
| 0.8302 | 176 | 0.0798 |
|
552 |
+
| 0.8349 | 177 | 0.0911 |
|
553 |
+
| 0.8396 | 178 | 0.1376 |
|
554 |
+
| 0.8443 | 179 | 0.104 |
|
555 |
+
| 0.8491 | 180 | 0.1152 |
|
556 |
+
| 0.8538 | 181 | 0.139 |
|
557 |
+
| 0.8585 | 182 | 0.0994 |
|
558 |
+
| 0.8632 | 183 | 0.0982 |
|
559 |
+
| 0.8679 | 184 | 0.1182 |
|
560 |
+
| 0.8726 | 185 | 0.086 |
|
561 |
+
| 0.8774 | 186 | 0.0968 |
|
562 |
+
| 0.8821 | 187 | 0.1048 |
|
563 |
+
| 0.8868 | 188 | 0.1447 |
|
564 |
+
| 0.8915 | 189 | 0.1069 |
|
565 |
+
| 0.8962 | 190 | 0.1402 |
|
566 |
+
| 0.9009 | 191 | 0.1004 |
|
567 |
+
| 0.9057 | 192 | 0.1 |
|
568 |
+
| 0.9104 | 193 | 0.0829 |
|
569 |
+
| 0.9151 | 194 | 0.102 |
|
570 |
+
| 0.9198 | 195 | 0.1025 |
|
571 |
+
| 0.9245 | 196 | 0.107 |
|
572 |
+
| 0.9292 | 197 | 0.0918 |
|
573 |
+
| 0.9340 | 198 | 0.0875 |
|
574 |
+
| 0.9387 | 199 | 0.1056 |
|
575 |
+
| 0.9434 | 200 | 0.0833 |
|
576 |
+
| 0.9481 | 201 | 0.1141 |
|
577 |
+
| 0.9528 | 202 | 0.0882 |
|
578 |
+
| 0.9575 | 203 | 0.0938 |
|
579 |
+
| 0.9623 | 204 | 0.1121 |
|
580 |
+
| 0.9670 | 205 | 0.1146 |
|
581 |
+
| 0.9717 | 206 | 0.0994 |
|
582 |
+
| 0.9764 | 207 | 0.0884 |
|
583 |
+
| 0.9811 | 208 | 0.0895 |
|
584 |
+
| 0.9858 | 209 | 0.1013 |
|
585 |
+
| 0.9906 | 210 | 0.0885 |
|
586 |
+
| 0.9953 | 211 | 0.142 |
|
587 |
+
| 1.0 | 212 | 0.0918 |
|
588 |
+
| 1.0047 | 213 | 0.0989 |
|
589 |
+
| 1.0094 | 214 | 0.1417 |
|
590 |
+
| 1.0142 | 215 | 0.1095 |
|
591 |
+
| 1.0189 | 216 | 0.084 |
|
592 |
+
| 1.0236 | 217 | 0.0641 |
|
593 |
+
| 1.0283 | 218 | 0.1307 |
|
594 |
+
| 1.0330 | 219 | 0.1007 |
|
595 |
+
| 1.0377 | 220 | 0.0844 |
|
596 |
+
| 1.0425 | 221 | 0.0779 |
|
597 |
+
| 1.0472 | 222 | 0.0734 |
|
598 |
+
| 1.0519 | 223 | 0.0647 |
|
599 |
+
| 1.0566 | 224 | 0.0843 |
|
600 |
+
| 1.0613 | 225 | 0.0805 |
|
601 |
+
| 1.0660 | 226 | 0.0866 |
|
602 |
+
| 1.0708 | 227 | 0.0555 |
|
603 |
+
| 1.0755 | 228 | 0.0579 |
|
604 |
+
| 1.0802 | 229 | 0.0567 |
|
605 |
+
| 1.0849 | 230 | 0.0849 |
|
606 |
+
| 1.0896 | 231 | 0.0592 |
|
607 |
+
| 1.0943 | 232 | 0.066 |
|
608 |
+
| 1.0991 | 233 | 0.0446 |
|
609 |
+
| 1.1038 | 234 | 0.063 |
|
610 |
+
| 1.1085 | 235 | 0.0517 |
|
611 |
+
| 1.1132 | 236 | 0.0502 |
|
612 |
+
| 1.1179 | 237 | 0.0461 |
|
613 |
+
| 1.1226 | 238 | 0.0529 |
|
614 |
+
| 1.1274 | 239 | 0.0516 |
|
615 |
+
| 1.1321 | 240 | 0.0544 |
|
616 |
+
| 1.1368 | 241 | 0.0544 |
|
617 |
+
| 1.1415 | 242 | 0.0486 |
|
618 |
+
| 1.1462 | 243 | 0.0566 |
|
619 |
+
| 1.1509 | 244 | 0.0371 |
|
620 |
+
| 1.1557 | 245 | 0.0317 |
|
621 |
+
| 1.1604 | 246 | 0.0635 |
|
622 |
+
| 1.1651 | 247 | 0.0678 |
|
623 |
+
| 1.1698 | 248 | 0.0351 |
|
624 |
+
| 1.1745 | 249 | 0.0372 |
|
625 |
+
| 1.1792 | 250 | 0.0433 |
|
626 |
+
| 1.1840 | 251 | 0.0441 |
|
627 |
+
| 1.1887 | 252 | 0.034 |
|
628 |
+
| 1.1934 | 253 | 0.0476 |
|
629 |
+
| 1.1981 | 254 | 0.0383 |
|
630 |
+
| 1.2028 | 255 | 0.0468 |
|
631 |
+
| 1.2075 | 256 | 0.0451 |
|
632 |
+
| 1.2123 | 257 | 0.0382 |
|
633 |
+
| 1.2170 | 258 | 0.0494 |
|
634 |
+
| 1.2217 | 259 | 0.0409 |
|
635 |
+
| 1.2264 | 260 | 0.0395 |
|
636 |
+
| 1.2311 | 261 | 0.0417 |
|
637 |
+
| 1.2358 | 262 | 0.0416 |
|
638 |
+
| 1.2406 | 263 | 0.0682 |
|
639 |
+
| 1.2453 | 264 | 0.053 |
|
640 |
+
| 1.25 | 265 | 0.0518 |
|
641 |
+
| 1.2547 | 266 | 0.0644 |
|
642 |
+
| 1.2594 | 267 | 0.0371 |
|
643 |
+
| 1.2642 | 268 | 0.0288 |
|
644 |
+
| 1.2689 | 269 | 0.0425 |
|
645 |
+
| 1.2736 | 270 | 0.0401 |
|
646 |
+
| 1.2783 | 271 | 0.0381 |
|
647 |
+
| 1.2830 | 272 | 0.0367 |
|
648 |
+
| 1.2877 | 273 | 0.0405 |
|
649 |
+
| 1.2925 | 274 | 0.0493 |
|
650 |
+
| 1.2972 | 275 | 0.0391 |
|
651 |
+
| 1.3019 | 276 | 0.0334 |
|
652 |
+
| 1.3066 | 277 | 0.0492 |
|
653 |
+
| 1.3113 | 278 | 0.0431 |
|
654 |
+
| 1.3160 | 279 | 0.0516 |
|
655 |
+
| 1.3208 | 280 | 0.031 |
|
656 |
+
| 1.3255 | 281 | 0.0298 |
|
657 |
+
| 1.3302 | 282 | 0.0417 |
|
658 |
+
| 1.3349 | 283 | 0.0381 |
|
659 |
+
| 1.3396 | 284 | 0.0422 |
|
660 |
+
| 1.3443 | 285 | 0.0498 |
|
661 |
+
| 1.3491 | 286 | 0.0413 |
|
662 |
+
| 1.3538 | 287 | 0.0591 |
|
663 |
+
| 1.3585 | 288 | 0.0524 |
|
664 |
+
| 1.3632 | 289 | 0.0296 |
|
665 |
+
| 1.3679 | 290 | 0.0379 |
|
666 |
+
| 1.3726 | 291 | 0.0352 |
|
667 |
+
| 1.3774 | 292 | 0.0609 |
|
668 |
+
| 1.3821 | 293 | 0.0507 |
|
669 |
+
| 1.3868 | 294 | 0.0275 |
|
670 |
+
| 1.3915 | 295 | 0.0519 |
|
671 |
+
| 1.3962 | 296 | 0.0472 |
|
672 |
+
| 1.4009 | 297 | 0.0351 |
|
673 |
+
| 1.4057 | 298 | 0.039 |
|
674 |
+
| 1.4104 | 299 | 0.0611 |
|
675 |
+
| 1.4151 | 300 | 0.0215 |
|
676 |
+
| 1.4198 | 301 | 0.0366 |
|
677 |
+
| 1.4245 | 302 | 0.0494 |
|
678 |
+
| 1.4292 | 303 | 0.044 |
|
679 |
+
| 1.4340 | 304 | 0.0381 |
|
680 |
+
| 1.4387 | 305 | 0.0426 |
|
681 |
+
| 1.4434 | 306 | 0.04 |
|
682 |
+
| 1.4481 | 307 | 0.0514 |
|
683 |
+
| 1.4528 | 308 | 0.0328 |
|
684 |
+
| 1.4575 | 309 | 0.0494 |
|
685 |
+
| 1.4623 | 310 | 0.0425 |
|
686 |
+
| 1.4670 | 311 | 0.0428 |
|
687 |
+
| 1.4717 | 312 | 0.035 |
|
688 |
+
| 1.4764 | 313 | 0.034 |
|
689 |
+
| 1.4811 | 314 | 0.0251 |
|
690 |
+
| 1.4858 | 315 | 0.0335 |
|
691 |
+
| 1.4906 | 316 | 0.0601 |
|
692 |
+
| 1.4953 | 317 | 0.0284 |
|
693 |
+
| 1.5 | 318 | 0.0719 |
|
694 |
+
| 1.5047 | 319 | 0.0265 |
|
695 |
+
| 1.5094 | 320 | 0.0432 |
|
696 |
+
| 1.5142 | 321 | 0.047 |
|
697 |
+
| 1.5189 | 322 | 0.0475 |
|
698 |
+
| 1.5236 | 323 | 0.024 |
|
699 |
+
| 1.5283 | 324 | 0.0284 |
|
700 |
+
| 1.5330 | 325 | 0.047 |
|
701 |
+
| 1.5377 | 326 | 0.0362 |
|
702 |
+
| 1.5425 | 327 | 0.0501 |
|
703 |
+
| 1.5472 | 328 | 0.0346 |
|
704 |
+
| 1.5519 | 329 | 0.0272 |
|
705 |
+
| 1.5566 | 330 | 0.0447 |
|
706 |
+
| 1.5613 | 331 | 0.0273 |
|
707 |
+
| 1.5660 | 332 | 0.0583 |
|
708 |
+
| 1.5708 | 333 | 0.0436 |
|
709 |
+
| 1.5755 | 334 | 0.0641 |
|
710 |
+
| 1.5802 | 335 | 0.0462 |
|
711 |
+
| 1.5849 | 336 | 0.0326 |
|
712 |
+
| 1.5896 | 337 | 0.0327 |
|
713 |
+
| 1.5943 | 338 | 0.087 |
|
714 |
+
| 1.5991 | 339 | 0.0488 |
|
715 |
+
| 1.6038 | 340 | 0.0376 |
|
716 |
+
| 1.6085 | 341 | 0.0272 |
|
717 |
+
| 1.6132 | 342 | 0.023 |
|
718 |
+
| 1.6179 | 343 | 0.0451 |
|
719 |
+
| 1.6226 | 344 | 0.0343 |
|
720 |
+
|
721 |
+
</details>
|
722 |
+
|
723 |
+
### Framework Versions
|
724 |
+
- Python: 3.10.12
|
725 |
+
- Sentence Transformers: 3.2.1
|
726 |
+
- Transformers: 4.44.2
|
727 |
+
- PyTorch: 2.3.1+cu121
|
728 |
+
- Accelerate: 1.1.1
|
729 |
+
- Datasets: 2.21.0
|
730 |
+
- Tokenizers: 0.19.1
|
731 |
+
|
732 |
+
## Citation
|
733 |
+
|
734 |
+
### BibTeX
|
735 |
+
|
736 |
+
#### Sentence Transformers
|
737 |
+
```bibtex
|
738 |
+
@inproceedings{reimers-2019-sentence-bert,
|
739 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
740 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
741 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
742 |
+
month = "11",
|
743 |
+
year = "2019",
|
744 |
+
publisher = "Association for Computational Linguistics",
|
745 |
+
url = "https://arxiv.org/abs/1908.10084",
|
746 |
+
}
|
747 |
+
```
|
748 |
+
|
749 |
+
<!--
|
750 |
+
## Glossary
|
751 |
+
|
752 |
+
*Clearly define terms in order to be accessible across audiences.*
|
753 |
+
-->
|
754 |
+
|
755 |
+
<!--
|
756 |
+
## Model Card Authors
|
757 |
+
|
758 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
759 |
+
-->
|
760 |
+
|
761 |
+
<!--
|
762 |
+
## Model Card Contact
|
763 |
+
|
764 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
765 |
+
-->
|
config.json
ADDED
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "/root/models/bge-m3-kor-retrieval-451949-bs128-finance-book-science/checkpoint-344",
|
3 |
+
"architectures": [
|
4 |
+
"XLMRobertaModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"bos_token_id": 0,
|
8 |
+
"classifier_dropout": null,
|
9 |
+
"eos_token_id": 2,
|
10 |
+
"hidden_act": "gelu",
|
11 |
+
"hidden_dropout_prob": 0.1,
|
12 |
+
"hidden_size": 1024,
|
13 |
+
"initializer_range": 0.02,
|
14 |
+
"intermediate_size": 4096,
|
15 |
+
"layer_norm_eps": 1e-05,
|
16 |
+
"max_position_embeddings": 8194,
|
17 |
+
"model_type": "xlm-roberta",
|
18 |
+
"num_attention_heads": 16,
|
19 |
+
"num_hidden_layers": 24,
|
20 |
+
"output_past": true,
|
21 |
+
"pad_token_id": 1,
|
22 |
+
"position_embedding_type": "absolute",
|
23 |
+
"torch_dtype": "float32",
|
24 |
+
"transformers_version": "4.44.2",
|
25 |
+
"type_vocab_size": 1,
|
26 |
+
"use_cache": true,
|
27 |
+
"vocab_size": 250002
|
28 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.2.1",
|
4 |
+
"transformers": "4.44.2",
|
5 |
+
"pytorch": "2.3.1+cu121"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": null
|
10 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:0e7b8581f7602e67b019476bc4880e2e973b6e6ee5649a7fc9c4d90ca1a9d683
|
3 |
+
size 2271064456
|
modules.json
ADDED
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
},
|
14 |
+
{
|
15 |
+
"idx": 2,
|
16 |
+
"name": "2",
|
17 |
+
"path": "2_Normalize",
|
18 |
+
"type": "sentence_transformers.models.Normalize"
|
19 |
+
}
|
20 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 1024,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"cls_token": {
|
10 |
+
"content": "<s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"eos_token": {
|
17 |
+
"content": "</s>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"mask_token": {
|
24 |
+
"content": "<mask>",
|
25 |
+
"lstrip": true,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"pad_token": {
|
31 |
+
"content": "<pad>",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
},
|
37 |
+
"sep_token": {
|
38 |
+
"content": "</s>",
|
39 |
+
"lstrip": false,
|
40 |
+
"normalized": false,
|
41 |
+
"rstrip": false,
|
42 |
+
"single_word": false
|
43 |
+
},
|
44 |
+
"unk_token": {
|
45 |
+
"content": "<unk>",
|
46 |
+
"lstrip": false,
|
47 |
+
"normalized": false,
|
48 |
+
"rstrip": false,
|
49 |
+
"single_word": false
|
50 |
+
}
|
51 |
+
}
|
tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:6e3b8957de04e3a4ed42b1a11381556f9adad8d0d502b9dd071c75f626b28f40
|
3 |
+
size 17083053
|
tokenizer_config.json
ADDED
@@ -0,0 +1,62 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"250001": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": true,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"bos_token": "<s>",
|
45 |
+
"clean_up_tokenization_spaces": true,
|
46 |
+
"cls_token": "<s>",
|
47 |
+
"eos_token": "</s>",
|
48 |
+
"mask_token": "<mask>",
|
49 |
+
"max_length": 1024,
|
50 |
+
"model_max_length": 1024,
|
51 |
+
"pad_to_multiple_of": null,
|
52 |
+
"pad_token": "<pad>",
|
53 |
+
"pad_token_type_id": 0,
|
54 |
+
"padding_side": "right",
|
55 |
+
"sep_token": "</s>",
|
56 |
+
"sp_model_kwargs": {},
|
57 |
+
"stride": 0,
|
58 |
+
"tokenizer_class": "XLMRobertaTokenizer",
|
59 |
+
"truncation_side": "right",
|
60 |
+
"truncation_strategy": "longest_first",
|
61 |
+
"unk_token": "<unk>"
|
62 |
+
}
|