Mistral-portuguese-luana-7b-Mathematics
Luana Mathematics is a tuned model of the Luana-7b based on the Mistral 7b architecture. This Model has been fine-tuned with 64k math problems and solutions derived from Microsoft's Orca-Math.
How to use
You can use the model in its normal form up to 4-bit quantization. Below we will use both approaches. Remember that verbs are important in your prompt. Tell your model how to act or behave so that you can guide them along the path of their response. Important points like these help models (even smaller models like 7b) to perform much better.
!pip install -q -U transformers
!pip install -q -U accelerate
!pip install -q -U bitsandbytes
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
model = AutoModelForCausalLM.from_pretrained("rhaymison/Mistral-portuguese-luana-7b-Mathematics", device_map= {"": 0})
tokenizer = AutoTokenizer.from_pretrained("rhaymison/Mistral-portuguese-luana-7b-Mathematics")
model.eval()
You can use with Pipeline but in this example i will use such as Streaming
inputs = tokenizer([f"""<s>[INST] Abaixo estรก uma instruรงรฃo que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido.
### instruรงรฃo: Se eu emprestei 100 reais para o meu irmรฃo para que ele me pague em 3 vezes. O juros do emprรฉstimo รฉ 5% do valor do emprestimo por mes. Quanto meu irmรฃo terรก que me pagar no total?
[/INST]"""], return_tensors="pt")
inputs.to(model.device)
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
_ = model.generate(**inputs, streamer=streamer, max_new_tokens=200)
#Para calcular o valor total que seu irmรฃo terรก que pagar, precisamos primeiro calcular o interesse do emprรฉstimo e depois adicionรก -lo ao valor principal.
#O interesse do emprรฉstimo รฉ de 5% do valor do emprรฉstimo por mรชs.Entรฃo, para cada mรชs, o interesse serรก:
#5% de 100 reais = 0,05 * 100 = 5 reais
#Como o emprรฉstimo รฉ devolvido em 3 vezes, o interesse total serรก:
#5 reais/mรชs * 3 meses = 15 reais
#Agora, adicionamos o interesse ao valor principal para encontrar o valor total que seu irmรฃo terรก que pagar:
#100 reais (valor principal) + 15 reais (juros) = 115 reais
#Portanto, seu irmรฃo terรก que pagar 115 reais no total.
inputs = tokenizer([f"""<s>[INST] Abaixo estรก uma instruรงรฃo que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido.
### instruรงรฃo: Joรฃo Esta pilotando sua bicicleta a uma velocidade de 20 km por hora. Se Joรฃo esta fazendo uma Viagem da cidade de Venda nova a cidade de Independencia que possuem a distancia entre si de 320km.
Quanto tempo Joรฃo vai demorar para ir de uma cidade a outra?
[/INST]"""], return_tensors="pt")
inputs.to(model.device)
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
_ = model.generate(**inputs, streamer=streamer, max_new_tokens=200)
#Para descobrir quanto tempo levarรก Joรฃo para viajar da cidade de venda nova para a cidade de Independรชncia, precisamos dividir a distรขncia total que ele precisa percorrer pela velocidade em que ele estรก andando.
#Distรขncia total = 320 km
#Velocidade de Joรฃo = 20 km/h
#Tempo = distรขncia / velocidade
#Tempo = 320 km / 20 km / h
#Tempo = 16 horas
#Entรฃo, levarรก Joรฃo 16 horas para viajar da cidade de venda nova para a cidade de Independรชncia.
inputs = tokenizer([f"""<s>[INST] Abaixo estรก uma instruรงรฃo que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto. Escreva uma resposta que complete adequadamente o pedido.
### instruรงรฃo: Qual a area de um triangulo equilatero de 4 cm de base por 2 de altura ?
[/INST]"""], return_tensors="pt")
inputs.to(model.device)
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
_ = model.generate(**inputs, streamer=streamer, max_new_tokens=200)
#A รกrea de um triรขngulo equilรกtero รฉ dada pela fรณrmula:
#รrea = (1/2) * base * altura
#Dado que a base รฉ de 4 cm e a altura รฉ de 2 cm, podemos conectar esses valores ร fรณrmula:
#รrea = (1/2) * 4 cm * 2 cm
#รrea = (1/2) * 8 cmยฒ
#รrea = 4 cmยฒ
#Portanto, a รกrea do triรขngulo equilรกtero รฉ de 4 centรญmetros quadrados.
If you are having a memory problem such as "CUDA Out of memory", you should use 4-bit or 8-bit quantization. For the complete model in colab you will need the A100. If you want to use 4bits or 8bits, T4 or L4 will already solve the problem.
4bits
from transformers import BitsAndBytesConfig
import torch
nb_4bit_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_use_double_quant=True
)
model = AutoModelForCausalLM.from_pretrained(
base_model,
quantization_config=bnb_config,
device_map={"": 0}
)
Open Portuguese LLM Leaderboard Evaluation Results
Detailed results can be found here and on the ๐ Open Portuguese LLM Leaderboard
Metric | Value |
---|---|
Average | 63.6 |
ENEM Challenge (No Images) | 56.68 |
BLUEX (No Images) | 45.90 |
OAB Exams | 37.90 |
Assin2 RTE | 89.36 |
Assin2 STS | 74.78 |
FaQuAD NLI | 74.87 |
HateBR Binary | 76.39 |
PT Hate Speech Binary | 67.46 |
tweetSentBR | 49.03 |
Comments
Any idea, help or report will always be welcome.
email: [email protected]
- Downloads last month
- 23
Model tree for rhaymison/Mistral-portuguese-luana-7b-Mathematics
Base model
mistralai/Mistral-7B-Instruct-v0.2Dataset used to train rhaymison/Mistral-portuguese-luana-7b-Mathematics
Space using rhaymison/Mistral-portuguese-luana-7b-Mathematics 1
Evaluation results
- accuracy on ENEM Challenge (No Images)Open Portuguese LLM Leaderboard56.680
- accuracy on BLUEX (No Images)Open Portuguese LLM Leaderboard45.900
- accuracy on OAB ExamsOpen Portuguese LLM Leaderboard37.900
- f1-macro on Assin2 RTEtest set Open Portuguese LLM Leaderboard89.360
- pearson on Assin2 STStest set Open Portuguese LLM Leaderboard74.780
- f1-macro on FaQuAD NLItest set Open Portuguese LLM Leaderboard74.870
- f1-macro on HateBR Binarytest set Open Portuguese LLM Leaderboard76.390
- f1-macro on PT Hate Speech Binarytest set Open Portuguese LLM Leaderboard67.460
- f1-macro on tweetSentBRtest set Open Portuguese LLM Leaderboard49.030