--- license: other library_name: peft tags: - llama-factory - lora - generated_from_trainer base_model: alpindale/Mistral-7B-v0.2-hf model-index: - name: train_2024-05-16-11-01-44 results: [] --- # Install ```bash pip install peft transformers bitsandbytes ``` # Run by transformers ```python from transformers import TextStreamer, AutoTokenizer, AutoModelForCausalLM from peft import PeftModel tokenizer = AutoTokenizer.from_pretrained("alpindale/Mistral-7B-v0.2-hf",) mis_model = AutoModelForCausalLM.from_pretrained("alpindale/Mistral-7B-v0.2-hf", load_in_4bit = True) mis_model = PeftModel.from_pretrained(mis_model, "svjack/DPO_ZH_RJ_EN_ORPO_Mistral7B_v2_lora_small") mis_model = mis_model.eval() streamer = TextStreamer(tokenizer) def mistral_hf_predict(prompt, mis_model = mis_model, tokenizer = tokenizer, streamer = streamer, do_sample = True, top_p = 0.95, top_k = 40, max_new_tokens = 512, max_input_length = 3500, temperature = 0.9, repetition_penalty = 1.0, device = "cuda"): messages = [ {"role": "user", "content": prompt[:max_input_length]} ] encodeds = tokenizer.apply_chat_template(messages, return_tensors="pt") model_inputs = encodeds.to(device) generated_ids = mis_model.generate(model_inputs, max_new_tokens=max_new_tokens, do_sample=do_sample, streamer = streamer, top_p = top_p, top_k = top_k, temperature = temperature, repetition_penalty = repetition_penalty, ) out = tokenizer.batch_decode(generated_ids)[0].split("[/INST]")[-1].replace("", "").strip() return out out = mistral_hf_predict("如何对语料进行有效的翻译?", repetition_penalty = 1.1, temperature = 0.01, max_new_tokens=1024 ) print(out) ``` # Output ```txt 当然,我很乐意帮助您了解如何有效地将语料翻译成英语。以下是一些关于这个主题的建议: 1. 选择适合您目标受众和需求的翻译服务。有许多可用的翻译服务,包括机器翻译、人工翻译和混合翻译。根据您的预算、时间限制和质量要求来决定最适合您的选项。 2. 准备好您的语料。确保您的文本清晰、简洁并且符合您的目标受众。这样做可以使翻译过程更加容易,并提高质量。 3. 选择一个专业的翻译服务。确保您选择一个具有良好声誉和经验的翻译服务。查看他们的客户评论、证书和凭证,以确保他们能够为您提供高质量的翻译。 4. 提供详细的指导方针。向翻译服务提供关于您的目标受众、风格和任何特殊要求的信息。这可以帮助翻译服务更好地理解您的需求,并提供更准确和相应的翻译。 5. 审查翻译。请随时审查翻译,并与翻译服务沟通以确保它满足您的需求。这可以帮助您确保翻译准确、清楚并符合您的目标受众。 6. 考虑修改。在审查翻译后,考虑修改以符合您的风格和需求。这可以帮助您创造一个独特的内容,同时保持其准确性。 7. 测试翻译。在发布之前,测试您的翻译,以确保它在不同设备上都显示得正确。这可以帮助您避免任何错误或问题。 8. 记录翻译。记录您的翻译,以便您可以在未来重新使用。这可以节省时间和金钱,并确保您的内容始终是准确的。 9. 跟踪翻译的进展。跟踪您的翻译的进展,以确保它按计划完成。这可以帮助您避免任何延迟或问题。 10. 评估翻译的质量。评估您的翻译的质量,以确保它符合您的需求。这可以帮助您确保您的内容准确、清楚并符合您的目标受众。 ``` # train_2024-05-16-11-01-44 This model is a fine-tuned version of [alpindale/Mistral-7B-v0.2-hf](https://huggingface.co/alpindale/Mistral-7B-v0.2-hf) on the dpo_zh_reject_en dataset. ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 5e-05 - train_batch_size: 2 - eval_batch_size: 8 - seed: 42 - gradient_accumulation_steps: 8 - total_train_batch_size: 16 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: cosine - num_epochs: 3.0 - mixed_precision_training: Native AMP ### Training results ### Framework versions - PEFT 0.10.0 - Transformers 4.40.2 - Pytorch 2.3.0+cu121 - Datasets 2.19.1 - Tokenizers 0.19.1