{ model_type: llama, tokenizer_class: LlamaTokenizerFast, vocab_size: 50257, bos_token_id: 50256, eos_token_id: 50256, unk_token_id: 0, pad_token_id: 50256, do_lower_case: false } | |
{ model_type: llama, tokenizer_class: LlamaTokenizerFast, vocab_size: 50257, bos_token_id: 50256, eos_token_id: 50256, unk_token_id: 0, pad_token_id: 50256, do_lower_case: false } | |