From cb7c3983b573836c31749ea8574a5ddf1ae08765 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=D0=9C=D0=B0=D0=B7=D1=83=D1=80=20=D0=93=D1=80=D0=B5=D1=82?= =?UTF-8?q?=D0=B0=20=D0=95=D0=B2=D0=B3=D0=B5=D0=BD=D1=8C=D0=B5=D0=B2=D0=BD?= =?UTF-8?q?=D0=B0?= <gemazur_1@edu.hse.ru> Date: Tue, 25 Mar 2025 19:15:41 +0300 Subject: [PATCH] micro zapusk no cross --- .ipynb_checkpoints/checkLora-checkpoint.py | 4 ++-- checkLora.py | 4 ++-- 2 files changed, 4 insertions(+), 4 deletions(-) diff --git a/.ipynb_checkpoints/checkLora-checkpoint.py b/.ipynb_checkpoints/checkLora-checkpoint.py index e980d76..00e7efb 100644 --- a/.ipynb_checkpoints/checkLora-checkpoint.py +++ b/.ipynb_checkpoints/checkLora-checkpoint.py @@ -152,10 +152,10 @@ device = torch.device("cuda" if torch.cuda.is_available() else "cpu") config = PeftConfig.from_pretrained("./micro_no_cross_fine_tuned") # Загружаем базовую модель для классификации с двумя выходами (безопасность и атака) -model = BertForSequenceClassification.from_pretrained(config.base_model_name_or_path, num_labels=5) # 1 для безопасности и 4 для атак +base_model = BertForSequenceClassification.from_pretrained(config.base_model_name_or_path, num_labels=5) # 1 для безопасности и 4 для атак # Загружаем LoRA-адаптеры -model = PeftModel.from_pretrained(model, "./micro_no_cross_fine_tuned", is_trainable=False) +model = PeftModel.from_pretrained(base_model, "./micro_no_cross_fine_tuned", is_trainable=False) # Переводим модель на нужное устройство и переводим в режим предсказания model.to(device) diff --git a/checkLora.py b/checkLora.py index e980d76..00e7efb 100644 --- a/checkLora.py +++ b/checkLora.py @@ -152,10 +152,10 @@ device = torch.device("cuda" if torch.cuda.is_available() else "cpu") config = PeftConfig.from_pretrained("./micro_no_cross_fine_tuned") # Загружаем базовую модель для классификации с двумя выходами (безопасность и атака) -model = BertForSequenceClassification.from_pretrained(config.base_model_name_or_path, num_labels=5) # 1 для безопасности и 4 для атак +base_model = BertForSequenceClassification.from_pretrained(config.base_model_name_or_path, num_labels=5) # 1 для безопасности и 4 для атак # Загружаем LoRA-адаптеры -model = PeftModel.from_pretrained(model, "./micro_no_cross_fine_tuned", is_trainable=False) +model = PeftModel.from_pretrained(base_model, "./micro_no_cross_fine_tuned", is_trainable=False) # Переводим модель на нужное устройство и переводим в режим предсказания model.to(device) -- GitLab