jujbob commited on
Commit
f9f2b09
·
verified ·
1 Parent(s): 6d89aab

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +3 -11
README.md CHANGED
@@ -10,11 +10,11 @@ license: llama3.2
10
 
11
 
12
  <a href="https://github.com/MLP-Lab/Bllossom">
13
- <img src="https://raw.githubusercontent.com/teddysum/bllossom/main/bllossom_icon.png?token=GHSAT0AAAAAACZIELMFYS74LTHEVHXKCYQMZ2SUOVQ" width="30%" height="30%">
14
  </a>
15
 
16
  # Update!
17
- * [2024.12.06] 훨씬 강력한 최신 Bllossom-AICA-3B로 업데이트 되었습니다 [링크](https://huggingface.co/Bllossom/llama-3.2-Korean-Bllossom-AICA-3B)
18
  * [2024.10.08] Bllossom-3B 모델이 최초 업데이트 되었습니다.
19
 
20
 
@@ -26,7 +26,6 @@ llama3.2-3B가 나왔는데 한국어가 포함 안되었다구?? 이번 Bllosso
26
  - 100% full-tuning으로 150GB의 정제된 한국어로 추가 사전학습 되었습니다. (GPU많이 태웠습니다)
27
  - 굉장히 정제된 Instruction Tuning을 진행했습니다.
28
  - 영어 성능을 전혀 손상시키지 않은 완전한 Bilingual 모델입니다.
29
- - LogicKor 기준 5B이하 최고점수를 기록했고 6점 초반대 점수를 보입니다.
30
  - Instruction tuning만 진행했습니다. DPO 등 성능 올릴 방법으로 튜닝해보세요.
31
  - MT-Bench, LogicKor 등 벤치마크 점수를 잘받기 위해 정답데이터를 활용하거나 혹은 벤치마크를 타겟팅 해서 학습하지 않았습니다. (해당 벤치마크 타게팅해서 학습하면 8점도 나옵니다...)
32
 
@@ -125,11 +124,4 @@ print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=Tru
125
 
126
  ## Contributor
127
  - **유한결(Hangyeol Yoo)**, [email protected]
128
- - 신동재(Dongjae Shin), dylan1998@seoultech.ac.kr
129
- - 임현석(Hyeonseok Lim), [email protected]
130
- - 원인호(Inho Won), [email protected]
131
- - 김민준(Minjun Kim), [email protected]
132
- - 송승우(Seungwoo Song), [email protected]
133
- - 육정훈(Jeonghun Yuk), [email protected]
134
- - 최창수(Chansu Choi), [email protected]
135
- - 송서현(Seohyun Song), [email protected]
 
10
 
11
 
12
  <a href="https://github.com/MLP-Lab/Bllossom">
13
+ <img src="https://img.newspim.com/news/2024/08/07/2408070813597620.jpg" width="30%" height="30%">
14
  </a>
15
 
16
  # Update!
17
+ * [2024.12.06] 훨씬 강력한 최신 Bllossom-AICA-3B로 업데이트 되었습니다 [링크](https://huggingface.co/Bllossom/llama-3.2-Korean-Bllossom-AICA-5B)
18
  * [2024.10.08] Bllossom-3B 모델이 최초 업데이트 되었습니다.
19
 
20
 
 
26
  - 100% full-tuning으로 150GB의 정제된 한국어로 추가 사전학습 되었습니다. (GPU많이 태웠습니다)
27
  - 굉장히 정제된 Instruction Tuning을 진행했습니다.
28
  - 영어 성능을 전혀 손상시키지 않은 완전한 Bilingual 모델입니다.
 
29
  - Instruction tuning만 진행했습니다. DPO 등 성능 올릴 방법으로 튜닝해보세요.
30
  - MT-Bench, LogicKor 등 벤치마크 점수를 잘받기 위해 정답데이터를 활용하거나 혹은 벤치마크를 타겟팅 해서 학습하지 않았습니다. (해당 벤치마크 타게팅해서 학습하면 8점도 나옵니다...)
31
 
 
124
 
125
  ## Contributor
126
  - **유한결(Hangyeol Yoo)**, [email protected]
127
+ - 최창수(Chansu Choi), choics2623@seoultech.ac.kr