Create README.md
Browse files
README.md
ADDED
@@ -0,0 +1,36 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# Usage with SentenceTransformers
|
2 |
+
The usage becomes easier when you have SentenceTransformers installed. Then, you can use the pre-trained models like this:
|
3 |
+
|
4 |
+
```python
|
5 |
+
from sentence_transformers import CrossEncoder
|
6 |
+
model = CrossEncoder('model_name')
|
7 |
+
scores = model.predict([(Paragraph1a, Paragraph1b), (Paragraph2a, Paragraph2b) , (Paragraph3a, Paragraph3b)])
|
8 |
+
```
|
9 |
+
# Usage with Huggingface Transformers
|
10 |
+
The usage becomes easier when you have SentenceTransformers installed. Then, you can use the pre-trained models like this:
|
11 |
+
|
12 |
+
```python
|
13 |
+
from transformers import AutoTokenizer, AutoModelForSequenceClassification
|
14 |
+
model = AutoModelForSequenceClassification.from_pretrained(name_model)
|
15 |
+
tokenizer = AutoTokenizer.from_pretrained(name_model)
|
16 |
+
with torch.no_grad():
|
17 |
+
encoded_input = tokenizer('[SEP]'.join([Paragraph1a, Paragraph1b]), return_tensors='pt')
|
18 |
+
output = model(**encoded_input).logits[0]
|
19 |
+
```
|
20 |
+
|
21 |
+
# Example results
|
22 |
+
paragraph1 = '이러한 국제 정세 속에서 우리나라도 ‘제4차 산업혁명을 선도할 지식재산 경쟁력 확보’를 목표로 제2차 국가지식재산기본계획(2017~2021)을 수립하였다. 신기술 도입, 콘텐츠의 디지털화, 나고야 의정서 발효 등의 글로벌 환경 변화를 반영한 본 계획의 시행을 통해 지식재산 제도'
|
23 |
+
paragraph2 = '선진화와 7조 7,251억 원의 생산, 3조 6,017억 원의 부가가치, 79,076명의 취업, 63,389명의 취업 유발 등의 경제적 파급효과가 예상된다.'
|
24 |
+
(Where the two paragraphs incorrectly separated)
|
25 |
+
- Output from ST: [ 2.9367106, -2.7748516]
|
26 |
+
- Output from HF: [ 2.9245, -2.7643]
|
27 |
+
|
28 |
+
paragraph1 = '1) 주요 정책의 흐름'
|
29 |
+
paragraph2 = '2020년은 미국의 지식재산 정책에 있어서 중요한 시기라고 할 수 있다. 미국의 도날드 트럼프 행정부의 마지막 임기로서 지식재산권과 관련한 무역전쟁도 한창진행 중이었기 때문이다. 2018년부터 지속된 미·중 무역전쟁에 대해 트럼프 미국 대통령과 류허 중국 중앙정치국 위원 겸 부총리는 2020년 1월 15일 1단계 무역합의에 서명하였고 2월 14일부터 발효되었다. 미·중의 1단계 무역합의문에는 중국의 지식재산권 침해에 대한 입증책임'
|
30 |
+
(Where the two paragraphs correctly separated)
|
31 |
+
- Output from ST: [-4.113529 , 4.1533113]
|
32 |
+
- Output from HF: [-4.1086, 4.1488]
|
33 |
+
|
34 |
+
# Training details
|
35 |
+
Datasets:
|
36 |
+
- KorQuAD2.1 and AIHub Goverment Documents cleaned from HTML
|