Edit model card

Model Card for Model ID

aeolian83/Llama-3-Open-Ko-8B-aeolian83-chatvec 모델은

chat-vector 논문( https://arxiv.org/abs/2310.04799v2 )에 근거하여,

llama3의 pre-trained 모델의 parameter와 instruction 모델의 매개변수의 차이를

beomi님의 Llama-3-Open-Ko-8B에 적용한 모델

이 방법이 가능하다면 llama3의 instruction 모델에

llama3의 pre-trained 모델과 한국어 CP모델인 Llama-3-Open-Ko-8B 모델의 매개변수 차이를

instruction 모델에 넣었을 때 어떻게 되는지 확인하는 모

Metric

results/all/aeolian83/Llama-3-8B-Instruct-cp-transfer_1.0

0 5
kobest_boolq (macro_f1) 0.64621 0.60271
kobest_copa (macro_f1) 0.67856 0.705699
kobest_hellaswag (macro_f1) 0.424382 0.393211
kobest_sentineg (macro_f1) 0.520405 0.861176
kohatespeech (macro_f1) 0.252935 0.328311
kohatespeech_apeach (macro_f1) 0.337667 0.537256
kohatespeech_gen_bias (macro_f1) 0.124535 0.516813
korunsmile (f1) 0.360189 0.329664
nsmc (acc) 0.59726 0.75186
pawsx_ko (acc) 0.5155 0.51

Used Model

  • Base model(weight diff를 구하기 위한 베이스 모델) : meta-llama/Meta-Llama-3-8B
  • Chat model(weight diff를 제공하는 cp model) : beomi/Llama-3-Open-Ko-8B
  • Target model(weight diff를 적용해서 instruction 튠을 하고자 하는 모델) : meta-llama/Meta-Llama-3-8B-Instruct
Downloads last month
12
Safetensors
Model size
8.03B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.