Update README.md
Browse files
README.md
CHANGED
@@ -9,15 +9,19 @@ library_name: transformers
|
|
9 |
datasets:
|
10 |
- nayohan/CodeFeedback-Filtered-Instruction-ko
|
11 |
---
|
|
|
12 |
- base_model : [meta-llama/Llama-3.2-1B-Instruct](https://huggingface.co/meta-llama/Llama-3.2-1B-Instruct)
|
|
|
|
|
13 |
- data_set : [nayohan/CodeFeedback-Filtered-Instruction-ko](https://huggingface.co/datasets/nayohan/CodeFeedback-Filtered-Instruction-ko)
|
14 |
- 해당 데이터셋을 전부 사용한건 아니며 Python언어를 우선 추출한다음 데이터셋들의 생김새를 파악, 그 다음 전처리가 공통적으로 들어갈만한 데이터를 다시 추출하여 학습에 사용했습니다.
|
15 |
- 총 학습 데이터 건 : 49,859 건
|
16 |
-
|
|
|
17 |
```python
|
18 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
19 |
|
20 |
-
model_id = '
|
21 |
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
22 |
model = AutoModelForCausalLM.from_pretrained(model_id,
|
23 |
device_map="cuda:0",
|
@@ -79,6 +83,6 @@ print(final_output)
|
|
79 |
# ```
|
80 |
```
|
81 |
|
82 |
-
Hardware
|
83 |
- A100 40GB x 1
|
84 |
- Training Time : 1 hour 45 minutes
|
|
|
9 |
datasets:
|
10 |
- nayohan/CodeFeedback-Filtered-Instruction-ko
|
11 |
---
|
12 |
+
### Model Card for Model ID
|
13 |
- base_model : [meta-llama/Llama-3.2-1B-Instruct](https://huggingface.co/meta-llama/Llama-3.2-1B-Instruct)
|
14 |
+
|
15 |
+
### Training dataset
|
16 |
- data_set : [nayohan/CodeFeedback-Filtered-Instruction-ko](https://huggingface.co/datasets/nayohan/CodeFeedback-Filtered-Instruction-ko)
|
17 |
- 해당 데이터셋을 전부 사용한건 아니며 Python언어를 우선 추출한다음 데이터셋들의 생김새를 파악, 그 다음 전처리가 공통적으로 들어갈만한 데이터를 다시 추출하여 학습에 사용했습니다.
|
18 |
- 총 학습 데이터 건 : 49,859 건
|
19 |
+
|
20 |
+
### Basic usage
|
21 |
```python
|
22 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
23 |
|
24 |
+
model_id = 'Llama-3.2-1B-Instruct-FFT-coder-python'
|
25 |
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
26 |
model = AutoModelForCausalLM.from_pretrained(model_id,
|
27 |
device_map="cuda:0",
|
|
|
83 |
# ```
|
84 |
```
|
85 |
|
86 |
+
### Hardware
|
87 |
- A100 40GB x 1
|
88 |
- Training Time : 1 hour 45 minutes
|