koheibaba
upload files
e7a412f
raw
history blame
2.73 kB
import os
import torch
from datasets import load_dataset
from transformers import (
AutoModelForCausalLM,
AutoTokenizer,
BitsAndBytesConfig,
HfArgumentParser,
TrainingArguments,
pipeline,
logging,
)
from peft import LoraConfig, PeftModel
from trl import SFTTrainer
def load_llm_from_pretrained(pretrained_model_path):
if torch.cuda.is_available():
device_map = {"": 0}
else:
device_map = {"": "cpu"}
# モデルの準備
model_name = "line-corporation/japanese-large-lm-3.6b"
# トークナイザーの準備
tokenizer = AutoTokenizer.from_pretrained(
model_name,
use_fast=False,
add_eos_token=True,
trust_remote_code=True
)
# モデルの準備
if torch.cuda.is_available():
# 量子化パラメータ
bnb_config = BitsAndBytesConfig(
load_in_4bit=True, # 4bitベースモデルの有効化
bnb_4bit_quant_type="nf4", # 量子化種別 (fp4 or nf4)
bnb_4bit_compute_dtype=torch.float16, # 4bitベースモデルのdtype (float16 or bfloat16)
bnb_4bit_use_double_quant=False, # 4bitベースモデルのネストされた量子化の有効化 (二重量子化)
)
base_model = AutoModelForCausalLM.from_pretrained(
model_name,
quantization_config=bnb_config,
device_map=device_map,
torch_dtype=torch.float16
)
else:
base_model = AutoModelForCausalLM.from_pretrained(
model_name,
device_map=device_map,
torch_dtype=torch.float32
)
model = PeftModel.from_pretrained(
base_model,
pretrained_model_path,
offload_folder='./'
)
return model, tokenizer
def inference(model, tokenizer, input_text, ngword_with_label, temperature=0.01):
# プロンプトの準備
prompt = f"""指示:
入力された文章が不適切(攻撃的、暴力的、差別的、性的、政治的)であるかどうか、「はい」か「いいえ」で回答してください。「はい」の場合は理由も添えてください。
{input_text}
NGワード:
{", ".join(ngword_with_label)}
応答:
"""
# 推論の実行
input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
output_ids = model.generate(
input_ids=input_ids.to(device=model.device),
max_length=100,
temperature=temperature,
do_sample=True,
pad_token_id=tokenizer.pad_token_id,
bos_token_id=tokenizer.bos_token_id,
eos_token_id=tokenizer.eos_token_id
)
output = tokenizer.decode(output_ids.tolist()[0][input_ids.size(1):])
return output