From 54e6cf25db8e53e796b1e9be6c042f269934b6da Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=D0=9C=D0=B0=D0=B7=D1=83=D1=80=20=D0=93=D1=80=D0=B5=D1=82?= =?UTF-8?q?=D0=B0=20=D0=95=D0=B2=D0=B3=D0=B5=D0=BD=D1=8C=D0=B5=D0=B2=D0=BD?= =?UTF-8?q?=D0=B0?= <gemazur_1@edu.hse.ru> Date: Tue, 25 Mar 2025 20:17:10 +0300 Subject: [PATCH] micro zapusk no cross --- .ipynb_checkpoints/micro_no_cross-checkpoint.py | 6 +++--- micro_no_cross.py | 6 +++--- 2 files changed, 6 insertions(+), 6 deletions(-) diff --git a/.ipynb_checkpoints/micro_no_cross-checkpoint.py b/.ipynb_checkpoints/micro_no_cross-checkpoint.py index 0928468..796d000 100644 --- a/.ipynb_checkpoints/micro_no_cross-checkpoint.py +++ b/.ipynb_checkpoints/micro_no_cross-checkpoint.py @@ -102,7 +102,7 @@ class MultiTaskBert(BertPreTrainedModel): return {'logits_safety': logits_safety, 'logits_attack': logits_attack, 'loss': loss} # Создание модели -model = MultiTaskBert.from_pretrained('bert-base-uncased').to(device) +base_model = MultiTaskBert.from_pretrained('bert-base-uncased').to(device) # Настройка LoRA. # Явно исключаем сохранение модулей, не адаптированных LoRA (например, классификаторов), @@ -115,7 +115,7 @@ lora_config = LoraConfig( target_modules=["query", "value"], modules_to_save=["classifier"] # Не сохраняем дополнительные модули (classifier и т.д.) ) -model = get_peft_model(model, lora_config) +model = get_peft_model(base_model, lora_config) # Функция вычисления метрик def compute_metrics(p): @@ -179,7 +179,7 @@ plt.show() # trainer.save_model('./fine-tuned-bert-lora_new') # tokenizer.save_pretrained('./fine-tuned-bert-lora_new') # Сохранение модели, адаптеров LoRA и токенизатора -model.save_pretrained('./micro_no_cross_fine_tuned') # Сохраняет модель и её веса +base_model.save_pretrained('./micro_no_cross_fine_tuned/base') # Сохраняет модель и её веса tokenizer.save_pretrained('./micro_no_cross_fine_tuned') # Сохраняет токенизатор # model.save_pretrained("./micro_no_cross_fine_tuned") peft_model.save_pretrained("./micro_no_cross_fine_tuned/lora") diff --git a/micro_no_cross.py b/micro_no_cross.py index 0928468..796d000 100644 --- a/micro_no_cross.py +++ b/micro_no_cross.py @@ -102,7 +102,7 @@ class MultiTaskBert(BertPreTrainedModel): return {'logits_safety': logits_safety, 'logits_attack': logits_attack, 'loss': loss} # Создание модели -model = MultiTaskBert.from_pretrained('bert-base-uncased').to(device) +base_model = MultiTaskBert.from_pretrained('bert-base-uncased').to(device) # Настройка LoRA. # Явно исключаем сохранение модулей, не адаптированных LoRA (например, классификаторов), @@ -115,7 +115,7 @@ lora_config = LoraConfig( target_modules=["query", "value"], modules_to_save=["classifier"] # Не сохраняем дополнительные модули (classifier и т.д.) ) -model = get_peft_model(model, lora_config) +model = get_peft_model(base_model, lora_config) # Функция вычисления метрик def compute_metrics(p): @@ -179,7 +179,7 @@ plt.show() # trainer.save_model('./fine-tuned-bert-lora_new') # tokenizer.save_pretrained('./fine-tuned-bert-lora_new') # Сохранение модели, адаптеров LoRA и токенизатора -model.save_pretrained('./micro_no_cross_fine_tuned') # Сохраняет модель и её веса +base_model.save_pretrained('./micro_no_cross_fine_tuned/base') # Сохраняет модель и её веса tokenizer.save_pretrained('./micro_no_cross_fine_tuned') # Сохраняет токенизатор # model.save_pretrained("./micro_no_cross_fine_tuned") peft_model.save_pretrained("./micro_no_cross_fine_tuned/lora") -- GitLab