Update README.md
Browse files
README.md
CHANGED
@@ -10,11 +10,11 @@ license: llama3.2
|
|
10 |
|
11 |
|
12 |
<a href="https://github.com/MLP-Lab/Bllossom">
|
13 |
-
<img src="https://
|
14 |
</a>
|
15 |
|
16 |
# Update!
|
17 |
-
* [2024.12.06] 훨씬 강력한 최신 Bllossom-AICA-3B로 업데이트 되었습니다 [링크](https://huggingface.co/Bllossom/llama-3.2-Korean-Bllossom-AICA-
|
18 |
* [2024.10.08] Bllossom-3B 모델이 최초 업데이트 되었습니다.
|
19 |
|
20 |
|
@@ -26,7 +26,6 @@ llama3.2-3B가 나왔는데 한국어가 포함 안되었다구?? 이번 Bllosso
|
|
26 |
- 100% full-tuning으로 150GB의 정제된 한국어로 추가 사전학습 되었습니다. (GPU많이 태웠습니다)
|
27 |
- 굉장히 정제된 Instruction Tuning을 진행했습니다.
|
28 |
- 영어 성능을 전혀 손상시키지 않은 완전한 Bilingual 모델입니다.
|
29 |
-
- LogicKor 기준 5B이하 최고점수를 기록했고 6점 초반대 점수를 보입니다.
|
30 |
- Instruction tuning만 진행했습니다. DPO 등 성능 올릴 방법으로 튜닝해보세요.
|
31 |
- MT-Bench, LogicKor 등 벤치마크 점수를 잘받기 위해 정답데이터를 활용하거나 혹은 벤치마크를 타겟팅 해서 학습하지 않았습니다. (해당 벤치마크 타게팅해서 학습하면 8점도 나옵니다...)
|
32 |
|
@@ -125,11 +124,4 @@ print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=Tru
|
|
125 |
|
126 |
## Contributor
|
127 |
- **유한결(Hangyeol Yoo)**, [email protected]
|
128 |
-
-
|
129 |
-
- 임현석(Hyeonseok Lim), [email protected]
|
130 |
-
- 원인호(Inho Won), [email protected]
|
131 |
-
- 김민준(Minjun Kim), [email protected]
|
132 |
-
- 송승우(Seungwoo Song), [email protected]
|
133 |
-
- 육정훈(Jeonghun Yuk), [email protected]
|
134 |
-
- 최창수(Chansu Choi), [email protected]
|
135 |
-
- 송서현(Seohyun Song), [email protected]
|
|
|
10 |
|
11 |
|
12 |
<a href="https://github.com/MLP-Lab/Bllossom">
|
13 |
+
<img src="https://img.newspim.com/news/2024/08/07/2408070813597620.jpg" width="30%" height="30%">
|
14 |
</a>
|
15 |
|
16 |
# Update!
|
17 |
+
* [2024.12.06] 훨씬 강력한 최신 Bllossom-AICA-3B로 업데이트 되었습니다 [링크](https://huggingface.co/Bllossom/llama-3.2-Korean-Bllossom-AICA-5B)
|
18 |
* [2024.10.08] Bllossom-3B 모델이 최초 업데이트 되었습니다.
|
19 |
|
20 |
|
|
|
26 |
- 100% full-tuning으로 150GB의 정제된 한국어로 추가 사전학습 되었습니다. (GPU많이 태웠습니다)
|
27 |
- 굉장히 정제된 Instruction Tuning을 진행했습니다.
|
28 |
- 영어 성능을 전혀 손상시키지 않은 완전한 Bilingual 모델입니다.
|
|
|
29 |
- Instruction tuning만 진행했습니다. DPO 등 성능 올릴 방법으로 튜닝해보세요.
|
30 |
- MT-Bench, LogicKor 등 벤치마크 점수를 잘받기 위해 정답데이터를 활용하거나 혹은 벤치마크를 타겟팅 해서 학습하지 않았습니다. (해당 벤치마크 타게팅해서 학습하면 8점도 나옵니다...)
|
31 |
|
|
|
124 |
|
125 |
## Contributor
|
126 |
- **유한결(Hangyeol Yoo)**, [email protected]
|
127 |
+
- 최창수(Chansu Choi), choics2623@seoultech.ac.kr
|
|
|
|
|
|
|
|
|
|
|
|
|
|