cenkersisman
commited on
Commit
·
051564a
1
Parent(s):
6acf62c
Update README.md
Browse files
README.md
CHANGED
@@ -22,8 +22,8 @@ GPT-2 Türkçe Modeli
|
|
22 |
### Model Açıklaması
|
23 |
|
24 |
GPT-2 Türkçe Modeli, Türkçe diline özelleştirilmiş olan GPT-2 mimarisi temel alınarak oluşturulmuş bir dil modelidir. Belirli bir başlangıç metni temel alarak insana benzer metinler üretme yeteneğine sahiptir ve geniş bir Türkçe metin veri kümesi üzerinde eğitilmiştir.
|
25 |
-
Modelin eğitimi için 900 milyon karakterli Vikipedi seti kullanılmıştır.
|
26 |
-
Türkçe heceleme yapısına uygun tokenizer kullanılmış ve model
|
27 |
Eğitim için 4GB hafızası olan Nvidia Geforce RTX 3050 GPU kullanılmaktadır.
|
28 |
|
29 |
## Model Nasıl Kullanılabilir
|
@@ -33,7 +33,7 @@ Eğitim için 4GB hafızası olan Nvidia Geforce RTX 3050 GPU kullanılmaktadır
|
|
33 |
|
34 |
from transformers import GPT2Tokenizer, GPT2LMHeadModel
|
35 |
|
36 |
-
model_name = "cenkersisman/gpt2-turkish-900m"
|
37 |
tokenizer = GPT2Tokenizer.from_pretrained(model_name)
|
38 |
model = GPT2LMHeadModel.from_pretrained(model_name)
|
39 |
|
|
|
22 |
### Model Açıklaması
|
23 |
|
24 |
GPT-2 Türkçe Modeli, Türkçe diline özelleştirilmiş olan GPT-2 mimarisi temel alınarak oluşturulmuş bir dil modelidir. Belirli bir başlangıç metni temel alarak insana benzer metinler üretme yeteneğine sahiptir ve geniş bir Türkçe metin veri kümesi üzerinde eğitilmiştir.
|
25 |
+
Modelin eğitimi için 900 milyon karakterli Vikipedi seti kullanılmıştır. Eğitim setindeki cümleler maksimum 48 tokendan (token = kelime kökü ve ekleri) oluşmuştur bu yüzden oluşturacağı cümlelerin boyu sınırlıdır..
|
26 |
+
Türkçe heceleme yapısına uygun tokenizer kullanılmış ve model 1 milyon 800 bin adımda 3 epoch eğitilmiştir. Eğitim halen devam etmektedir.
|
27 |
Eğitim için 4GB hafızası olan Nvidia Geforce RTX 3050 GPU kullanılmaktadır.
|
28 |
|
29 |
## Model Nasıl Kullanılabilir
|
|
|
33 |
|
34 |
from transformers import GPT2Tokenizer, GPT2LMHeadModel
|
35 |
|
36 |
+
model_name = "cenkersisman/gpt2-turkish-900m"
|
37 |
tokenizer = GPT2Tokenizer.from_pretrained(model_name)
|
38 |
model = GPT2LMHeadModel.from_pretrained(model_name)
|
39 |
|