grapevine-AI commited on
Commit
29c5df9
·
verified ·
1 Parent(s): 2074848

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +34 -3
README.md CHANGED
@@ -1,3 +1,34 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ ---
4
+ # *caution!*
5
+ このGGUFは本来の性能を十分に発揮できていない「暫定版」です。<br>
6
+ これは2024年7月3日現在のllama.cppがCALM3モデル固有のpre-tokenization(≒前処理)をサポートしていないことに起因します。<br>
7
+ 妥協策として、pre-tokenization処理はllama.cppデフォルトのものを利用するように改造してありますが、これはモデルの性能低下を引き落としている可能性が極めて高いです。
8
+
9
+ # What is this?
10
+ CyberAgentの日英バイリンガル言語モデル[CyberAgentLM3-22B-Chat](https://huggingface.co/cyberagent/calm3-22b-chat)をGGUFフォーマットに変換したものです。
11
+
12
+ # imatrix dataset
13
+ 日本語能力を重視し、日本語が多量に含まれる[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)データセットを使用しました。<br>
14
+ また、imatrixの算出においてはq8_0精度のモデルを使用しました。これは、現行のCUDA版llama.cppがbf16での計算に非対応であり、またf16を使用した場合も原因不明のnanが検出されたためです。
15
+
16
+ # Chat template
17
+ ```
18
+ <|im_start|>system
19
+ ここにSystem Promptを書きます。<|im_end|>
20
+ <|im_start|>user
21
+ ここにMessageを書きます。<|im_end|>
22
+ <|im_start|>assistant
23
+
24
+
25
+ ```
26
+
27
+ # Environment
28
+ Windows版llama.cpp-b3274およびpre-tokenization関連に細工を施した改造版convert-hf-to-gguf.pyを使用して量子化作業を実施しました。
29
+
30
+ # License
31
+ apache-2.0
32
+
33
+ # Developer
34
+ CyberAgent