Saxo commited on
Commit
e754ae5
·
verified ·
1 Parent(s): d38d067

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -47,7 +47,7 @@ pipeline_tag: text-generation
47
 
48
  AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성(Saxo) 이사가 <br>
49
  meta-llama/Llama-3.2-3B-Instruct 베이스모델을 사용해서 H100-80G 8개를 통해 CPT(Continued Pre Trainig) 한 한글 언어 모델<br>
50
- 5천만건의 한글 뉴스 포함 다양한 한글 코퍼스를 기준으로 전체 파라미터중 약 45%를 재 튜닝한 한글 기본 모델로 SFT, DPO 를 통해 용도에 맞게 튜닝하면 됩니다.<br>
51
  -토크나이저는 확장 없이 베이스 모델을 그대로 사용<br>
52
  -128k-Context Window<br>
53
  -한글 Function Call 및 Tool Calling 지원 <br>
@@ -56,7 +56,7 @@ meta-llama/Llama-3.2-3B-Instruct 베이스모델을 사용해서 H100-80G 8개
56
 
57
  Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics <br>
58
  Korean language model CPT (Continued Pre Trainig) with 8 H100-80Gs using meta-llama/Llama-3.2-3B-Instruct base model<br>
59
- A basic Korean language model with about 45% of the total parameters re-tuned based on various Korean corpus including 50 million Korean news, which need to be customized through SFT and DPO.
60
  <br><br>
61
  -Tokenizer uses the base model without word expansion<br>
62
  -128k-Context Window<br>
 
47
 
48
  AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성(Saxo) 이사가 <br>
49
  meta-llama/Llama-3.2-3B-Instruct 베이스모델을 사용해서 H100-80G 8개를 통해 CPT(Continued Pre Trainig) 한 한글 언어 모델<br>
50
+ 5천만건의 한글 뉴스 포함 다양한 한글 코퍼스를 기준으로 전체 파라미터중 약 35%를 재 튜닝한 한글 기본 모델로 SFT, DPO 를 통해 용도에 맞게 튜닝하면 됩니다.<br>
51
  -토크나이저는 확장 없이 베이스 모델을 그대로 사용<br>
52
  -128k-Context Window<br>
53
  -한글 Function Call 및 Tool Calling 지원 <br>
 
56
 
57
  Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics <br>
58
  Korean language model CPT (Continued Pre Trainig) with 8 H100-80Gs using meta-llama/Llama-3.2-3B-Instruct base model<br>
59
+ A basic Korean language model with about 35% of the total parameters re-tuned based on various Korean corpus including 50 million Korean news, which need to be customized through SFT and DPO.
60
  <br><br>
61
  -Tokenizer uses the base model without word expansion<br>
62
  -128k-Context Window<br>