Актуализиран 03.01.2025
- Continued pretraining
- Уикипедиа 20%
Актуализиран 01.01.2025
- Continued pretraining
- Уикипедиа 10%
Актуализиран 30.12.2024
- по-дълги отговори
- по-подробна информация
- по-дълбоко обучение
- ~2500 реда синтетични данни
Първите резултати, които не са лоши...
Засега е тренирана върху моят малък датасет с 2000 реда синтетични данни (формат: въпрос-отговор)
Пример на работа
Въпрос:
Как компания Burgas Professionals е свързана с ПГМЕЕ?
Отговор:
Компания "Burgas Professionals" поддържа тесни връзки с Професионалната гимназия по мехатроника и електроенергетика (ПГМЕЕ) в Бургас. Тези връзки включват партньорства, лекции и обучителни програми, които помагат на учениците да развият умения в областта на информационните технологии и IT управление. Основната цел е да се осигури на младото поколение достъп до актуална информация и практически опит, който ще ги направи готови за бъдещата работна среда. Чрез тези партньорства ПГМЕЕ и Burgas Professionals работят заедно за развитие на технологиите в региона и за подготовка на нови поколения IT специалисти.
Тази llama модела тренирана 2 пъти по-бързо с помоща на Unsloth и TRL библиотеката на Huggingface.
Uploaded model
- Developed by: burgasdotpro
- License: apache-2.0
- Finetuned from model : unsloth/meta-llama-3.1-8b-bnb-4bit
- Downloads last month
- 948