GPT2 Answers | Mistral Answers | Ngram Model |
---|---|---|
![]() |
![]() |
![]() |
Model | Training Loss | Validation Loss | Rouge1 | Rouge2 | Rougel | Rougelsum | Bleu |
---|---|---|---|---|---|---|---|
GPT2 | 1.948600 | 1.965270 | 0.171252 | 0.088855 | 0.167642 | 0.168607 | 0.480183 |
Mistral | 0.931100 | 0.835708 | 0.191417 | 0.123226 | 0.190067 | 0.189545 | 0.535177 |
training_notebooks/stat_lm_training.ipynb
-- основной notebook по обучению модели.Training Data
: для обучения использовался датасет из диалогов собранных с Telegram чатов.
training_notebooks/rugptlarge_lm_qlora_training.ipynb
-- основной notebook по обучению моделиTraining Data
: для обучения использовался из датасет из инструкций, сгенерированных с помощью GPT4.
training_notebooks/mistral_7b_v0.1.ipynb
-- основной notebook по обучению моделиTraining Data
: для обучения использовался из датасет из инструкций, сгенерированных с помощью GPT4.
Веса моделей можно найти по ссылке
Для того, чтобы заработал весь функционал, архивы моделей необходимо распаковать в папку models
.
Для корректного функционирования бота необходимо установить все пакеты из requirements.txt
:
Бота можно запустить с помощью команды:
python llm_assistant_bot.py