histlearn commited on
Commit
7e9fb95
·
verified ·
1 Parent(s): a204c72

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +12 -6
README.md CHANGED
@@ -20,6 +20,10 @@ O dataset utilizado para o fine-tuning é o [#PraCegoVer](https://zenodo.org/rec
20
 
21
  Para traduzir o vocabulário das descrições das imagens para o português, utilizamos o modelo de tradução automática `Helsinki-NLP/opus-mt-tc-big-en-pt`. Este modelo é conhecido pela sua eficácia na tradução de textos entre o inglês e o português, garantindo a manutenção do contexto e da precisão das descrições.
22
 
 
 
 
 
23
  ## Estrutura do Repositório
24
 
25
  - `config.json`: Configuração do modelo.
@@ -33,13 +37,15 @@ Para traduzir o vocabulário das descrições das imagens para o português, uti
33
 
34
  ## Como Utilizar
35
 
36
- 1. **Carregar o Modelo**:
37
- ```python
38
- from transformers import AutoModelForCausalLM, AutoTokenizer, AutoProcessor
 
 
 
 
 
39
 
40
- model = AutoModelForCausalLM.from_pretrained("histlearn/microsoft-git-portuguese-neuro-simbolic")
41
- tokenizer = AutoTokenizer.from_pretrained("histlearn/microsoft-git-portuguese-neuro-simbolic")
42
- processor = AutoProcessor.from_pretrained("histlearn/microsoft-git-portuguese-neuro-simbolic")
43
  ```
44
 
45
  2. **Gerar Legendas para uma Imagem**:
 
20
 
21
  Para traduzir o vocabulário das descrições das imagens para o português, utilizamos o modelo de tradução automática `Helsinki-NLP/opus-mt-tc-big-en-pt`. Este modelo é conhecido pela sua eficácia na tradução de textos entre o inglês e o português, garantindo a manutenção do contexto e da precisão das descrições.
22
 
23
+ ## Tokenizador Utilizado
24
+
25
+ O tokenizador utilizado para o ajuste fino é o `neuralmind/bert-base-portuguese-cased`, que é otimizado para lidar com o português, proporcionando uma tokenização precisa e eficiente para o modelo.
26
+
27
  ## Estrutura do Repositório
28
 
29
  - `config.json`: Configuração do modelo.
 
37
 
38
  ## Como Utilizar
39
 
40
+ ### Carregar o Modelo:
41
+
42
+ ```python
43
+ from transformers import AutoModelForCausalLM, AutoTokenizer, AutoProcessor
44
+
45
+ model = AutoModelForCausalLM.from_pretrained("histlearn/microsoft-git-portuguese-neuro-simbolic")
46
+ tokenizer = AutoTokenizer.from_pretrained("histlearn/microsoft-git-portuguese-neuro-simbolic")
47
+ processor = AutoProcessor.from_pretrained("histlearn/microsoft-git-portuguese-neuro-simbolic")
48
 
 
 
 
49
  ```
50
 
51
  2. **Gerar Legendas para uma Imagem**: