Spaces:
Sleeping
Sleeping
✨ feat: README.mdにUnslothを用いた高速推論に関するセクションを追加
Browse files- Llama-3.2モデルとLLM-JPモデルの高速推論実装に関する情報を追加しました。
- 各モデルの使用方法とColabノートブックへのリンクを追加しました。
- Unslothによる高速化の効果を強調しました。
README.md
CHANGED
@@ -81,6 +81,17 @@ license: mit
|
|
81 |
- → [マークダウン形式からノートブック形式への変換はこちらを使用してください](https://huggingface.co/spaces/MakiAi/JupytextWebUI)
|
82 |
- [📒ノートブックはこちら](https://colab.research.google.com/drive/1AjtWF2vOEwzIoCMmlQfSTYCVgy4Y78Wi?usp=sharing)
|
83 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
84 |
### OllamaとLiteLLMを使用した効率的なモデル運用
|
85 |
- Google Colabでのセットアップと運用ガイド
|
86 |
- → 詳細は [`efficient-ollama-colab-setup-with-litellm-guide.md`](sandbox/efficient-ollama-colab-setup-with-litellm-guide.md) をご参照ください。
|
|
|
81 |
- → [マークダウン形式からノートブック形式への変換はこちらを使用してください](https://huggingface.co/spaces/MakiAi/JupytextWebUI)
|
82 |
- [📒ノートブックはこちら](https://colab.research.google.com/drive/1AjtWF2vOEwzIoCMmlQfSTYCVgy4Y78Wi?usp=sharing)
|
83 |
|
84 |
+
### Unslothを使用した高速推論
|
85 |
+
- Llama-3.2モデルの高速推論実装
|
86 |
+
- → 詳細は [`Unsloth_inference_llama3-2.md`](sandbox/Unsloth_inference_llama3-2.md) をご参照ください。
|
87 |
+
- → Unslothを使用したLlama-3.2モデルの効率的な推論処理の実装
|
88 |
+
- [📒ノートブックはこちら](https://colab.research.google.com/drive/1FkAYiX2fbGPTRUopYw39Qt5UE2tWJRpa?usp=sharing)
|
89 |
+
|
90 |
+
- LLM-JPモデルの高速推論実装
|
91 |
+
- → 詳細は [`Unsloth_inference_llm_jp.md`](sandbox/Unsloth_inference_llm_jp.md) をご参照ください。
|
92 |
+
- → 日本語LLMの高速推論処理の実装とパフォーマンス最適化
|
93 |
+
- [📒ノートブックはこちら](https://colab.research.google.com/drive/1lbMKv7NzXQ1ynCg7DGQ6PcCFPK-zlSEG?usp=sharing)
|
94 |
+
|
95 |
### OllamaとLiteLLMを使用した効率的なモデル運用
|
96 |
- Google Colabでのセットアップと運用ガイド
|
97 |
- → 詳細は [`efficient-ollama-colab-setup-with-litellm-guide.md`](sandbox/efficient-ollama-colab-setup-with-litellm-guide.md) をご参照ください。
|