--- base_model: meta-llama/Llama-2-7b-chat-hf tags: - generated_from_trainer model-index: - name: lora-llama-2-7b-food-order-understanding results: [] --- # 실험내용과 테스트 데이터에 대한 분류 결과 리포트 주문 문장에 의해 학습된 llama 2 를 nsmc (영화 리뷰 데이터셋) train dataset 3000개로 학습을 시켰다. 처음에는 2000개를 학습시켰으나 정확도가 예상한 것 만큼 나오지 않아 1000개를 더 학습시켰더니 약 10%의 정확도가 올라갔다. 그리고 1000개의 test dataset으로 테스트를 해보았다. 정확도는 82.40 % 가 나왔으며 표는 밑 사진으로 확인할 수 있다. 이 실험은 다른 데이터 셋과 다른 요구로 학습되어있던 LLM을 새 데이터 셋과 새 요구로 미세튜닝 하였을 때 정확도가 얼만큼 나오는지를 보여주는 것이다. # 표 ![image/jpeg](https://cdn-uploads.huggingface.co/production/uploads/6523d751ab14165941297c07/lqtQt5D_Mx6mvUxICblEC.jpeg) # lora-llama-2-7b-food-order-understanding This model is a fine-tuned version of [meta-llama/Llama-2-7b-chat-hf](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf) on an unknown dataset. ## Model description More information needed ## Intended uses & limitations More information needed ## Training and evaluation data More information needed ## Training procedure ### Training hyperparameters The following hyperparameters were used during training: - learning_rate: 0.0001 - train_batch_size: 1 - eval_batch_size: 1 - seed: 42 - gradient_accumulation_steps: 2 - total_train_batch_size: 2 - optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08 - lr_scheduler_type: cosine - lr_scheduler_warmup_ratio: 0.03 - num_epochs: 1 - mixed_precision_training: Native AMP ### Training results ### Framework versions - Transformers 4.35.2 - Pytorch 2.1.0+cu118 - Datasets 2.15.0 - Tokenizers 0.15.0