képzési információ

A modell, egy újragondolt adatbázissal került kiképzésre.

Az adatbázisból ki lettek véve:

  • a numerikus számok, ezért a modell az elhangzott számokat szövegesen fogja leírni
  • speciális karakterek, ezért ezeket is fonetikusan fogja leírni
  • mozaikszavak
  • nagybetűk

Ezek miatt a változtatások miatt a WER elszállt kicsit, viszont a normalizált WER, tovább javult. A hipernormalizált WER vélhetően mégjobb lenne (ahhol a tesztataok is át lennének javítva a fentiek szerint).

A képzés ezesetben a transformer könyvtár mintascriptjével történt: https://github.com/huggingface/transformers/tree/main/examples/pytorch/speech-recognition#whisper-model egyedi 2000 órás adatkészleten, ami most a CV17 train+validate spliteket is tartalmazta.

Downloads last month
14
Inference API
Unable to determine this model's library. Check the docs .

Model tree for sarpba/faster-base-hungarian_int8_V2

Finetuned
(1)
this model

Collection including sarpba/faster-base-hungarian_int8_V2