WatariNAKANO commited on
Commit
87609b6
·
verified ·
1 Parent(s): 0d844b0

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -1
README.md CHANGED
@@ -15,7 +15,7 @@ language:
15
  # Uploaded model
16
 
17
  - **Developed by:** WatariNAKANO
18
- - **License:** apache-2.0
19
  - **Finetuned from model :** llm-jp/llm-jp-3-13b
20
  - **使用したデータセット :** ichikara-instruction-003-001-1.json
21
  - **ライセンス :** CC-BY-NC-SA(ichikara-instruction使用のため)
@@ -40,6 +40,8 @@ elyza-tasks-100-TV_0.jsonl
40
  ※ここで一旦リスタートする必要があります。
41
 
42
  ```python
 
 
43
  !pip install --upgrade xformers
44
 
45
  # Install Flash Attention 2 for softcapping support
@@ -194,7 +196,9 @@ with open(f"{new_model_id}_output.jsonl", 'w', encoding='utf-8') as f:
194
  json.dump(result, f, ensure_ascii=False)
195
  f.write('\n')
196
 
 
197
 
 
198
  # LoRAアダプタだけ保存
199
  new_model_id = "WatariNAKANO/llm-jp-3-13b-it-1217" #Fine-Tuningしたモデルにつけたい名前
200
  model.push_to_hub_merged(
 
15
  # Uploaded model
16
 
17
  - **Developed by:** WatariNAKANO
18
+ - **License:** cc-by-nc-sa
19
  - **Finetuned from model :** llm-jp/llm-jp-3-13b
20
  - **使用したデータセット :** ichikara-instruction-003-001-1.json
21
  - **ライセンス :** CC-BY-NC-SA(ichikara-instruction使用のため)
 
40
  ※ここで一旦リスタートする必要があります。
41
 
42
  ```python
43
+ # Google Colab のデフォルトで入っているパッケージをアップグレード
44
+ !pip install --upgrade torch
45
  !pip install --upgrade xformers
46
 
47
  # Install Flash Attention 2 for softcapping support
 
196
  json.dump(result, f, ensure_ascii=False)
197
  f.write('\n')
198
 
199
+ ```
200
 
201
+ ```python
202
  # LoRAアダプタだけ保存
203
  new_model_id = "WatariNAKANO/llm-jp-3-13b-it-1217" #Fine-Tuningしたモデルにつけたい名前
204
  model.push_to_hub_merged(