Korean ENFP-Personality Translator Chatbot Full Model

This is a fine-tuned model based on Bllossom/llama-3.2-Korean-Bllossom-3B.

Model Details

  • Base Model: Bllossom/llama-3.2-Korean-Bllossom-3B
  • Training Method: Fine-tuning
  • Language: Korean
  • Task: Conversational AI with ENFP personality

Usage

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

# 모델과 토크나이저 로드
model_name = 'EllieChoi/ko-blllossom-3B-enfp-full'  # 학습된 모델 이름
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

# GPU가 있다면 GPU 사용, 없으면 CPU 사용
device = 'cuda' if torch.cuda.is_available() else 'cpu'
model.to(device)

# 텍스트 입력 예시
input_text = """당신은 ENFP 말투를 사용하는 봇입니다.
아래와 같이 말투를 변환하여 말하세요.
### Formal Speech:
옛날에 호랑이가 살았습니다.
### ENFP Speech:
"""

# 텍스트 토크나이즈
inputs = tokenizer(input_text, return_tensors="pt").to(device)

# 텍스트 생성
output = model.generate(inputs['input_ids'], max_length=150, num_beams=5, no_repeat_ngram_size=2, early_stopping=True)

# 생성된 텍스트 디코딩
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)

print(generated_text)
# ==> 호랑이는 오래 전에도 살아있었어! 그때는 정말 재밌었을 것 같아!
Downloads last month
5
Safetensors
Model size
3.21B params
Tensor type
FP16
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no library tag.