Update README.md
Browse files
README.md
CHANGED
@@ -42,10 +42,13 @@ language:
|
|
42 |
|
43 |
https://weblab.t.u-tokyo.ac.jp/lecture/course-list/large-language-model/
|
44 |
|
45 |
-
2024年11月30
|
46 |
|
47 |
-
SampleCode
|
48 |
-
|
|
|
|
|
|
|
49 |
|
50 |
# Sample Use
|
51 |
以下は、elyza-tasks-100-TV_0.jsonlの回答用モデルコードです!
|
@@ -85,7 +88,7 @@ pip install torch torchvision torchaudio --index-url https://download.pytorch.or
|
|
85 |
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
|
86 |
from unsloth import FastLanguageModel
|
87 |
import torch
|
88 |
-
max_seq_length =
|
89 |
dtype = None # Noneにしておけば自動で設定
|
90 |
load_in_4bit = True # 今回は8Bクラスのモデルを扱うためTrue
|
91 |
|
|
|
42 |
|
43 |
https://weblab.t.u-tokyo.ac.jp/lecture/course-list/large-language-model/
|
44 |
|
45 |
+
2024年11月30日時点で驚きの「第〇位」記念スクショはコンペ終了後に公開。。
|
46 |
|
47 |
+
SampleCodeベース。
|
48 |
+
|
49 |
+
おススメ設定を幾つか実施しただけ。。((((;゚Д゚))))
|
50 |
+
|
51 |
+
コンテキスト長の設定がドンピシャだったのか(感)??
|
52 |
|
53 |
# Sample Use
|
54 |
以下は、elyza-tasks-100-TV_0.jsonlの回答用モデルコードです!
|
|
|
88 |
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
|
89 |
from unsloth import FastLanguageModel
|
90 |
import torch
|
91 |
+
max_seq_length = ??? # unslothではRoPEをサポートしているのでコンテキスト長は自由に設定可能。2回目Tryは少し大きめ設定。いったん非公開に
|
92 |
dtype = None # Noneにしておけば自動で設定
|
93 |
load_in_4bit = True # 今回は8Bクラスのモデルを扱うためTrue
|
94 |
|