From ae43c80d711d182f10b67fd07c564b517f876392 Mon Sep 17 00:00:00 2001
From: =?UTF-8?q?=D0=9C=D0=B0=D0=B7=D1=83=D1=80=20=D0=93=D1=80=D0=B5=D1=82?=
 =?UTF-8?q?=D0=B0=20=D0=95=D0=B2=D0=B3=D0=B5=D0=BD=D1=8C=D0=B5=D0=B2=D0=BD?=
 =?UTF-8?q?=D0=B0?= <gemazur_1@edu.hse.ru>
Date: Tue, 25 Mar 2025 21:21:24 +0300
Subject: [PATCH] micro zapusk no cross

---
 .ipynb_checkpoints/micro_no_cross-checkpoint.py | 3 ++-
 micro_no_cross.py                               | 3 ++-
 2 files changed, 4 insertions(+), 2 deletions(-)

diff --git a/.ipynb_checkpoints/micro_no_cross-checkpoint.py b/.ipynb_checkpoints/micro_no_cross-checkpoint.py
index 7d8f354..8f77759 100644
--- a/.ipynb_checkpoints/micro_no_cross-checkpoint.py
+++ b/.ipynb_checkpoints/micro_no_cross-checkpoint.py
@@ -103,6 +103,7 @@ class MultiTaskBert(BertPreTrainedModel):
 
 # Создание модели
 base_model = MultiTaskBert.from_pretrained('bert-base-uncased').to(device)
+base_model.save_pretrained('./micro_no_cross_fine_tuned/base')  # Сохраняет модель и её веса
 
 # Настройка LoRA.
 # Явно исключаем сохранение модулей, не адаптированных LoRA (например, классификаторов),
@@ -179,7 +180,7 @@ plt.show()
 # trainer.save_model('./fine-tuned-bert-lora_new')
 # tokenizer.save_pretrained('./fine-tuned-bert-lora_new')
 # Сохранение модели, адаптеров LoRA и токенизатора
-base_model.save_pretrained('./micro_no_cross_fine_tuned/base')  # Сохраняет модель и её веса
+# base_model.save_pretrained('./micro_no_cross_fine_tuned/base')  # Сохраняет модель и её веса
 tokenizer.save_pretrained('./micro_no_cross_fine_tuned')  # Сохраняет токенизатор
 # model.save_pretrained("./micro_no_cross_fine_tuned")
 model.save_pretrained("./micro_no_cross_fine_tuned/lora")
diff --git a/micro_no_cross.py b/micro_no_cross.py
index 7d8f354..8f77759 100644
--- a/micro_no_cross.py
+++ b/micro_no_cross.py
@@ -103,6 +103,7 @@ class MultiTaskBert(BertPreTrainedModel):
 
 # Создание модели
 base_model = MultiTaskBert.from_pretrained('bert-base-uncased').to(device)
+base_model.save_pretrained('./micro_no_cross_fine_tuned/base')  # Сохраняет модель и её веса
 
 # Настройка LoRA.
 # Явно исключаем сохранение модулей, не адаптированных LoRA (например, классификаторов),
@@ -179,7 +180,7 @@ plt.show()
 # trainer.save_model('./fine-tuned-bert-lora_new')
 # tokenizer.save_pretrained('./fine-tuned-bert-lora_new')
 # Сохранение модели, адаптеров LoRA и токенизатора
-base_model.save_pretrained('./micro_no_cross_fine_tuned/base')  # Сохраняет модель и её веса
+# base_model.save_pretrained('./micro_no_cross_fine_tuned/base')  # Сохраняет модель и её веса
 tokenizer.save_pretrained('./micro_no_cross_fine_tuned')  # Сохраняет токенизатор
 # model.save_pretrained("./micro_no_cross_fine_tuned")
 model.save_pretrained("./micro_no_cross_fine_tuned/lora")
-- 
GitLab