Korean ENFP-Personality Translator Chatbot Full Model
This is a fine-tuned model based on Bllossom/llama-3.2-Korean-Bllossom-3B.
Model Details
- Base Model: Bllossom/llama-3.2-Korean-Bllossom-3B
- Training Method: Fine-tuning
- Language: Korean
- Task: Conversational AI with ENFP personality
Usage
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# 모델과 토크나이저 로드
model_name = 'EllieChoi/ko-blllossom-3B-enfp-full' # 학습된 모델 이름
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# GPU가 있다면 GPU 사용, 없으면 CPU 사용
device = 'cuda' if torch.cuda.is_available() else 'cpu'
model.to(device)
# 텍스트 입력 예시
input_text = """당신은 ENFP 말투를 사용하는 봇입니다.
아래와 같이 말투를 변환하여 말하세요.
### Formal Speech:
옛날에 호랑이가 살았습니다.
### ENFP Speech:
"""
# 텍스트 토크나이즈
inputs = tokenizer(input_text, return_tensors="pt").to(device)
# 텍스트 생성
output = model.generate(inputs['input_ids'], max_length=150, num_beams=5, no_repeat_ngram_size=2, early_stopping=True)
# 생성된 텍스트 디코딩
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)
# ==> 호랑이는 오래 전에도 살아있었어! 그때는 정말 재밌었을 것 같아!
- Downloads last month
- 5
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API:
The model has no library tag.