Text Generation
Japanese
M5Stack Module LLM

TinySwallow-1.5B-Instruct-w8a16

このモデルは、SakanaAI/TinySwallow-1.5B-Instruct を、 M5Stack Module LLM向けにax-llm-buildで変換したモデルになります。

詳細な変換手順はpulsar2ドキュメントを参考にしてください。

アップロードしたaxmodelは次のようなコマンドで変換しています。

pulsar2 llm_build --input_path /path/to/TinySwallow-1.5B-Instruct/ --output_path /path/to/TinySwallow-1.5B-Instruct-ax630c --kv_cache_len 1653 --model_config /path/to/TinySwallow-1.5B-Instruct/config.json --hidden_state_type bf16 --chip AX620E --prefill_len 128

※ 利用したpulser2コンテナは3.3になります。

使い方

別途main_prefillを入手し本リポジトリファイル群とともにModule LLMに配備してください。

DeepSeek-R1の例に従い事前にトークナイザをHTTPサーバとして起動します(別ターミナルまたはバックグラウンド起動)。

python3 tinyswallow_tokenizer.py 

トークナイザ起動語にデバッグ用のスクリプトを実行します。

./run_TinySwallow_1.5B_prefill_ax630c.sh 
[I][                            Init][ 125]: LLM init start
bos_id: -1, eos_id: 151645
  3% | ██                                |   1 /  31 [0.01s<0.28s, 111.11 count/s] tokenizer init ok[I][                            Init][  26]: LLaMaEmbedSelector use mmap
100% | ████████████████████████████████ |  31 /  31 [8.15s<8.15s, 3.80 count/s] init post axmodel ok,remain_cmm(1434 MB)[I][                            Init][ 241]: max_token_len : 1653
[I][                            Init][ 246]: kv_cache_size : 256, kv_cache_num: 1653
[I][                            Init][ 254]: prefill_token_num : 128
[I][                            Init][ 263]: LLM init ok
Type "q" to exit, Ctrl+c to stop current running
>> こんにちは!
[I][                             Run][ 484]: ttft: 1066.67 ms
こんにちは! ��

何かお手伝いできることはありますか? 😊

license

以下をご確認下さい。

https://huggingface.co/SakanaAI/TinySwallow-1.5B-Instruct#license

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no library tag.

Model tree for taoki/TinySwallow-1.5B-Instruct-w8a16

Base model

Qwen/Qwen2.5-1.5B
Finetuned
(3)
this model

Datasets used to train taoki/TinySwallow-1.5B-Instruct-w8a16