From cb7c3983b573836c31749ea8574a5ddf1ae08765 Mon Sep 17 00:00:00 2001
From: =?UTF-8?q?=D0=9C=D0=B0=D0=B7=D1=83=D1=80=20=D0=93=D1=80=D0=B5=D1=82?=
 =?UTF-8?q?=D0=B0=20=D0=95=D0=B2=D0=B3=D0=B5=D0=BD=D1=8C=D0=B5=D0=B2=D0=BD?=
 =?UTF-8?q?=D0=B0?= <gemazur_1@edu.hse.ru>
Date: Tue, 25 Mar 2025 19:15:41 +0300
Subject: [PATCH] micro zapusk no cross

---
 .ipynb_checkpoints/checkLora-checkpoint.py | 4 ++--
 checkLora.py                               | 4 ++--
 2 files changed, 4 insertions(+), 4 deletions(-)

diff --git a/.ipynb_checkpoints/checkLora-checkpoint.py b/.ipynb_checkpoints/checkLora-checkpoint.py
index e980d76..00e7efb 100644
--- a/.ipynb_checkpoints/checkLora-checkpoint.py
+++ b/.ipynb_checkpoints/checkLora-checkpoint.py
@@ -152,10 +152,10 @@ device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
 config = PeftConfig.from_pretrained("./micro_no_cross_fine_tuned")
 
 # Загружаем базовую модель для классификации с двумя выходами (безопасность и атака)
-model = BertForSequenceClassification.from_pretrained(config.base_model_name_or_path, num_labels=5)  # 1 для безопасности и 4 для атак
+base_model = BertForSequenceClassification.from_pretrained(config.base_model_name_or_path, num_labels=5)  # 1 для безопасности и 4 для атак
 
 # Загружаем LoRA-адаптеры
-model = PeftModel.from_pretrained(model, "./micro_no_cross_fine_tuned", is_trainable=False)
+model = PeftModel.from_pretrained(base_model, "./micro_no_cross_fine_tuned", is_trainable=False)
 
 # Переводим модель на нужное устройство и переводим в режим предсказания
 model.to(device)
diff --git a/checkLora.py b/checkLora.py
index e980d76..00e7efb 100644
--- a/checkLora.py
+++ b/checkLora.py
@@ -152,10 +152,10 @@ device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
 config = PeftConfig.from_pretrained("./micro_no_cross_fine_tuned")
 
 # Загружаем базовую модель для классификации с двумя выходами (безопасность и атака)
-model = BertForSequenceClassification.from_pretrained(config.base_model_name_or_path, num_labels=5)  # 1 для безопасности и 4 для атак
+base_model = BertForSequenceClassification.from_pretrained(config.base_model_name_or_path, num_labels=5)  # 1 для безопасности и 4 для атак
 
 # Загружаем LoRA-адаптеры
-model = PeftModel.from_pretrained(model, "./micro_no_cross_fine_tuned", is_trainable=False)
+model = PeftModel.from_pretrained(base_model, "./micro_no_cross_fine_tuned", is_trainable=False)
 
 # Переводим модель на нужное устройство и переводим в режим предсказания
 model.to(device)
-- 
GitLab