jorge-henao commited on
Commit
054b0bf
·
1 Parent(s): f6a2ab5

Update about.py

Browse files
Files changed (1) hide show
  1. about.py +15 -10
about.py CHANGED
@@ -17,22 +17,27 @@ def show_about_ask2democracy():
17
  </div>
18
  <p>
19
 
20
- <h2>Sobre el trabajo realizado durante la Hackaton Somos NLP 2023</h2>
21
  El proyecto Ask2Democracy fue creado antes de la hackathon Somos NLP 2023. Sin embargo durante las fechas de la hackathon fue mejorado en los siguientes aspectos:
22
  <h4>El espacio demo:</h4>
23
- -Refactor/Ajustes de integración con la base de datos vectorial Pinecone
24
- -Pre-procesado e indexación de la propuesta de reforma pensional de Colombia de Marzo 2023
25
- -Refactor UX y ajustes de usabilidad de la interfaz de usuario
26
- -Ajustes de integración con OpenAI
27
- -Pruebas con Sentence transformers usando texto en español
 
 
28
  <h4>Modelos de lenguaje:</h4>
29
  Fueron entrenados dos modelos Baizemocracy basados en LLaMA-7B con foco en aumentar generativamente las respuestas retornadas por los sentence transformers con el fin de hacerlo más conversacional usando modelos open source en español.
30
  Los siguientes modelos fueron entrenados entrenados con un dataset construido durante la hackathon además de varios datasets orientados a Question answering y Chat.
31
- -[hackathon-somos-nlp-2023/baizemocracy-lora-7B-cfqa](https://huggingface.co/hackathon-somos-nlp-2023/baizemocracy-lora-7B-cfqa): Esta variación del modelo es más enfocada en generar respuestas factuales dado un contexto basado en fuentes.
32
- -[hackathon-somos-nlp-2023/baizemocracy-lora-7B-cfqa-conv](https://huggingface.co/hackathon-somos-nlp-2023/baizemocracy-lora-7B-cfqa-conv): Esta variación del modelo tiene un estílo más conversacional para generar respuestas factuales dado un contexto basado en fuentes.
 
 
33
  <h4>Datasets:</h4>
34
- -[hackathon-somos-nlp-2023/ask2democracy-cfqa-salud-pension](https://huggingface.co/datasets/hackathon-somos-nlp-2023/ask2democracy-cfqa-salud-pension): Un datset de tipo instrucciones con respuestas a preguntas generadas a partir de en un contexto basado en fuentes.
35
-
 
36
  Nota: Los modelos entrenados durante la hackathon requieren optimizaicón adicional para ser integrados en el pipeline de consulta.
37
  Durante la hackathon se realizaron pruebas con tiempos de inferencia de alredecor de <70 segundos sobre CPU, lo que dificulta la usabilidad en el demo usando hardware gratis de Hugging Face.
38
  Futuras actualizaciones se esperan incorporar en el demo original del proyecto [espacio demo original del proyecto](https://huggingface.co/spaces/jorge-henao/ask2democracycol)
 
17
  </div>
18
  <p>
19
 
20
+ <h2>Sobre el trabajo realizado durante la Hackathon Somos NLP 2023</h2>
21
  El proyecto Ask2Democracy fue creado antes de la hackathon Somos NLP 2023. Sin embargo durante las fechas de la hackathon fue mejorado en los siguientes aspectos:
22
  <h4>El espacio demo:</h4>
23
+ <ul>
24
+ <li>Refactor/Ajustes de integración con la base de datos vectorial Pinecone.</li>
25
+ <li>Pre-procesado e indexación de la propuesta de reforma pensional de Colombia de Marzo 2023.</li>
26
+ <li>Refactor UX y ajustes de usabilidad de la interfaz de usuario.</li>
27
+ <li>Ajustes de integración con OpenAI</li>
28
+ <li>Pruebas con Sentence transformers usando texto en español</li>
29
+ </ul>
30
  <h4>Modelos de lenguaje:</h4>
31
  Fueron entrenados dos modelos Baizemocracy basados en LLaMA-7B con foco en aumentar generativamente las respuestas retornadas por los sentence transformers con el fin de hacerlo más conversacional usando modelos open source en español.
32
  Los siguientes modelos fueron entrenados entrenados con un dataset construido durante la hackathon además de varios datasets orientados a Question answering y Chat.
33
+ <ul>
34
+ <li>[hackathon-somos-nlp-2023/baizemocracy-lora-7B-cfqa](https://huggingface.co/hackathon-somos-nlp-2023/baizemocracy-lora-7B-cfqa): Esta variación del modelo es más enfocada en generar respuestas factuales dado un contexto basado en fuentes.</li>
35
+ <li>[hackathon-somos-nlp-2023/baizemocracy-lora-7B-cfqa-conv](https://huggingface.co/hackathon-somos-nlp-2023/baizemocracy-lora-7B-cfqa-conv): Esta variación del modelo tiene un estílo más conversacional para generar respuestas factuales dado un contexto basado en fuentes.</li>
36
+ </ul>
37
  <h4>Datasets:</h4>
38
+ <ul>
39
+ <li>[hackathon-somos-nlp-2023/ask2democracy-cfqa-salud-pension](https://huggingface.co/datasets/hackathon-somos-nlp-2023/ask2democracy-cfqa-salud-pension): Un datset de tipo instrucciones con respuestas a preguntas generadas a partir de en un contexto basado en fuentes.</li>
40
+ </ul>
41
  Nota: Los modelos entrenados durante la hackathon requieren optimizaicón adicional para ser integrados en el pipeline de consulta.
42
  Durante la hackathon se realizaron pruebas con tiempos de inferencia de alredecor de <70 segundos sobre CPU, lo que dificulta la usabilidad en el demo usando hardware gratis de Hugging Face.
43
  Futuras actualizaciones se esperan incorporar en el demo original del proyecto [espacio demo original del proyecto](https://huggingface.co/spaces/jorge-henao/ask2democracycol)