From ae43c80d711d182f10b67fd07c564b517f876392 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=D0=9C=D0=B0=D0=B7=D1=83=D1=80=20=D0=93=D1=80=D0=B5=D1=82?= =?UTF-8?q?=D0=B0=20=D0=95=D0=B2=D0=B3=D0=B5=D0=BD=D1=8C=D0=B5=D0=B2=D0=BD?= =?UTF-8?q?=D0=B0?= <gemazur_1@edu.hse.ru> Date: Tue, 25 Mar 2025 21:21:24 +0300 Subject: [PATCH] micro zapusk no cross --- .ipynb_checkpoints/micro_no_cross-checkpoint.py | 3 ++- micro_no_cross.py | 3 ++- 2 files changed, 4 insertions(+), 2 deletions(-) diff --git a/.ipynb_checkpoints/micro_no_cross-checkpoint.py b/.ipynb_checkpoints/micro_no_cross-checkpoint.py index 7d8f354..8f77759 100644 --- a/.ipynb_checkpoints/micro_no_cross-checkpoint.py +++ b/.ipynb_checkpoints/micro_no_cross-checkpoint.py @@ -103,6 +103,7 @@ class MultiTaskBert(BertPreTrainedModel): # Создание модели base_model = MultiTaskBert.from_pretrained('bert-base-uncased').to(device) +base_model.save_pretrained('./micro_no_cross_fine_tuned/base') # Сохраняет модель и её веса # Настройка LoRA. # Явно исключаем сохранение модулей, не адаптированных LoRA (например, классификаторов), @@ -179,7 +180,7 @@ plt.show() # trainer.save_model('./fine-tuned-bert-lora_new') # tokenizer.save_pretrained('./fine-tuned-bert-lora_new') # Сохранение модели, адаптеров LoRA и токенизатора -base_model.save_pretrained('./micro_no_cross_fine_tuned/base') # Сохраняет модель и её веса +# base_model.save_pretrained('./micro_no_cross_fine_tuned/base') # Сохраняет модель и её веса tokenizer.save_pretrained('./micro_no_cross_fine_tuned') # Сохраняет токенизатор # model.save_pretrained("./micro_no_cross_fine_tuned") model.save_pretrained("./micro_no_cross_fine_tuned/lora") diff --git a/micro_no_cross.py b/micro_no_cross.py index 7d8f354..8f77759 100644 --- a/micro_no_cross.py +++ b/micro_no_cross.py @@ -103,6 +103,7 @@ class MultiTaskBert(BertPreTrainedModel): # Создание модели base_model = MultiTaskBert.from_pretrained('bert-base-uncased').to(device) +base_model.save_pretrained('./micro_no_cross_fine_tuned/base') # Сохраняет модель и её веса # Настройка LoRA. # Явно исключаем сохранение модулей, не адаптированных LoRA (например, классификаторов), @@ -179,7 +180,7 @@ plt.show() # trainer.save_model('./fine-tuned-bert-lora_new') # tokenizer.save_pretrained('./fine-tuned-bert-lora_new') # Сохранение модели, адаптеров LoRA и токенизатора -base_model.save_pretrained('./micro_no_cross_fine_tuned/base') # Сохраняет модель и её веса +# base_model.save_pretrained('./micro_no_cross_fine_tuned/base') # Сохраняет модель и её веса tokenizer.save_pretrained('./micro_no_cross_fine_tuned') # Сохраняет токенизатор # model.save_pretrained("./micro_no_cross_fine_tuned") model.save_pretrained("./micro_no_cross_fine_tuned/lora") -- GitLab