Spaces:
Sleeping
Sleeping
import os | |
import torch | |
from datasets import load_dataset | |
from transformers import ( | |
AutoModelForCausalLM, | |
AutoTokenizer, | |
BitsAndBytesConfig, | |
HfArgumentParser, | |
TrainingArguments, | |
pipeline, | |
logging, | |
) | |
from peft import LoraConfig, PeftModel | |
from trl import SFTTrainer | |
def load_llm_from_pretrained(pretrained_model_path): | |
if torch.cuda.is_available(): | |
device_map = {"": 0} | |
else: | |
device_map = {"": "cpu"} | |
# モデルの準備 | |
model_name = "line-corporation/japanese-large-lm-3.6b" | |
# トークナイザーの準備 | |
tokenizer = AutoTokenizer.from_pretrained( | |
model_name, | |
use_fast=False, | |
add_eos_token=True, | |
trust_remote_code=True | |
) | |
# モデルの準備 | |
if torch.cuda.is_available(): | |
# 量子化パラメータ | |
bnb_config = BitsAndBytesConfig( | |
load_in_4bit=True, # 4bitベースモデルの有効化 | |
bnb_4bit_quant_type="nf4", # 量子化種別 (fp4 or nf4) | |
bnb_4bit_compute_dtype=torch.float16, # 4bitベースモデルのdtype (float16 or bfloat16) | |
bnb_4bit_use_double_quant=False, # 4bitベースモデルのネストされた量子化の有効化 (二重量子化) | |
) | |
base_model = AutoModelForCausalLM.from_pretrained( | |
model_name, | |
quantization_config=bnb_config, | |
device_map=device_map, | |
torch_dtype=torch.float16 | |
) | |
else: | |
base_model = AutoModelForCausalLM.from_pretrained( | |
model_name, | |
device_map=device_map, | |
torch_dtype=torch.float32 | |
) | |
model = PeftModel.from_pretrained( | |
base_model, | |
pretrained_model_path, | |
offload_folder='./' | |
) | |
return model, tokenizer | |
def inference(model, tokenizer, input_text, ngword_with_label, temperature=0.01): | |
# プロンプトの準備 | |
prompt = f"""指示: | |
入力された文章が不適切(攻撃的、暴力的、差別的、性的、政治的)であるかどうか、「はい」か「いいえ」で回答してください。「はい」の場合は理由も添えてください。 | |
{input_text} | |
NGワード: | |
{", ".join(ngword_with_label)} | |
応答: | |
""" | |
# 推論の実行 | |
input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt") | |
output_ids = model.generate( | |
input_ids=input_ids.to(device=model.device), | |
max_length=100, | |
temperature=temperature, | |
do_sample=True, | |
pad_token_id=tokenizer.pad_token_id, | |
bos_token_id=tokenizer.bos_token_id, | |
eos_token_id=tokenizer.eos_token_id | |
) | |
output = tokenizer.decode(output_ids.tolist()[0][input_ids.size(1):]) | |
return output |