Актуализиран 03.01.2025

  • Continued pretraining
  • Уикипедиа 20%

Актуализиран 01.01.2025

  • Continued pretraining
  • Уикипедиа 10%

Актуализиран 30.12.2024

  • по-дълги отговори
  • по-подробна информация
  • по-дълбоко обучение
  • ~2500 реда синтетични данни

Първите резултати, които не са лоши... Засега е тренирана върху моят малък датасет с 2000 реда синтетични данни (формат: въпрос-отговор)

Пример на работа

Въпрос:

Как компания Burgas Professionals е свързана с ПГМЕЕ?

Отговор:

Компания "Burgas Professionals" поддържа тесни връзки с Професионалната гимназия по мехатроника и електроенергетика (ПГМЕЕ) в Бургас. Тези връзки включват партньорства, лекции и обучителни програми, които помагат на учениците да развият умения в областта на информационните технологии и IT управление. Основната цел е да се осигури на младото поколение достъп до актуална информация и практически опит, който ще ги направи готови за бъдещата работна среда. Чрез тези партньорства ПГМЕЕ и Burgas Professionals работят заедно за развитие на технологиите в региона и за подготовка на нови поколения IT специалисти.

Тази llama модела тренирана 2 пъти по-бързо с помоща на Unsloth и TRL библиотеката на Huggingface.

Uploaded model

  • Developed by: burgasdotpro
  • License: apache-2.0
  • Finetuned from model : unsloth/meta-llama-3.1-8b-bnb-4bit

Downloads last month
948
GGUF
Model size
8.03B params
Architecture
llama

4-bit

5-bit

6-bit

8-bit

Inference API
Unable to determine this model’s pipeline type. Check the docs .

Dataset used to train burgasdotpro/bgGPT-llama-3.1-8B-GGUF

Collection including burgasdotpro/bgGPT-llama-3.1-8B-GGUF