eradhea commited on
Commit
6742db0
·
1 Parent(s): 02ab389

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +7 -5
app.py CHANGED
@@ -1,6 +1,6 @@
1
  from transformers import BlenderbotTokenizer, BlenderbotForConditionalGeneration, pipeline
2
  import gradio as gr
3
- from googletrans import Translator
4
 
5
  mname = "facebook/blenderbot-400M-distill"
6
  model = BlenderbotForConditionalGeneration.from_pretrained(mname)
@@ -11,14 +11,16 @@ def chat(mensaje, history): # Desde un mensaje en español
11
 
12
  history = history or []
13
 
14
- traductor = Translator()
15
- MESSAGE = traductor.translate(mensaje, dest='en').text # Traduce el mensaje al inglés
16
 
17
  inputs = tokenizer(MESSAGE, return_tensors="pt") # Tokeniza el mensaje traducido
18
  reply_ids = model.generate(**inputs)
19
 
20
- response = tokenizer.batch_decode(reply_ids)[0][4:-4] # Genera la respuesta en inglés
21
- respuesta = traductor.translate(response, dest='es').text # Traduce la respuesta al español
 
 
22
 
23
  history.append((mensaje, respuesta))
24
 
 
1
  from transformers import BlenderbotTokenizer, BlenderbotForConditionalGeneration, pipeline
2
  import gradio as gr
3
+ from textblob import TextBlob as tb
4
 
5
  mname = "facebook/blenderbot-400M-distill"
6
  model = BlenderbotForConditionalGeneration.from_pretrained(mname)
 
11
 
12
  history = history or []
13
 
14
+ blob = tb(mensaje)
15
+ MESSAGE = str(blob.translate(from_lang='es', to='en')) # Traduce el mensaje al inglés
16
 
17
  inputs = tokenizer(MESSAGE, return_tensors="pt") # Tokeniza el mensaje traducido
18
  reply_ids = model.generate(**inputs)
19
 
20
+ response = tokenizer.batch_decode(reply_ids)[0] # Genera la respuesta (en inglés)
21
+
22
+ blob_2 = tb(response)
23
+ respuesta = str(blob_2.translate(from_lang='en', to='es'))[4:-5] # Traduce la respuesta al español
24
 
25
  history.append((mensaje, respuesta))
26