Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
@@ -1,5 +1,6 @@
|
|
1 |
import torch
|
2 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
|
|
3 |
|
4 |
device = "cuda" if torch.cuda.is_available() else "cpu"
|
5 |
|
@@ -51,14 +52,17 @@ tokenizer = AutoTokenizer.from_pretrained(model_name, padding_side="left")
|
|
51 |
tokenizer.pad_token = tokenizer.eos_token
|
52 |
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16).to(device)
|
53 |
|
|
|
|
|
|
|
|
|
|
|
54 |
input_prompts = [
|
55 |
"मैं अपने समय प्रबंधन कौशल को कैसे सुधार सकता हूँ? मुझे पांच बिंदु बताएं।",
|
56 |
"मैं अपने समय प्रबंधन कौशल को कैसे सुधार सकता हूँ? मुझे पांच बिंदु बताएं और उनका वर्णन करें।",
|
57 |
]
|
58 |
-
|
59 |
-
|
60 |
-
|
61 |
-
|
62 |
|
63 |
|
64 |
# import gradio as gr
|
|
|
1 |
import torch
|
2 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
3 |
+
import gradio as gr
|
4 |
|
5 |
device = "cuda" if torch.cuda.is_available() else "cpu"
|
6 |
|
|
|
52 |
tokenizer.pad_token = tokenizer.eos_token
|
53 |
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16).to(device)
|
54 |
|
55 |
+
def respond_to_text(input_text):
|
56 |
+
outputs = inference([input_text], model, tokenizer)
|
57 |
+
return outputs[0]
|
58 |
+
|
59 |
+
|
60 |
input_prompts = [
|
61 |
"मैं अपने समय प्रबंधन कौशल को कैसे सुधार सकता हूँ? मुझे पांच बिंदु बताएं।",
|
62 |
"मैं अपने समय प्रबंधन कौशल को कैसे सुधार सकता हूँ? मुझे पांच बिंदु बताएं और उनका वर्णन करें।",
|
63 |
]
|
64 |
+
iface = gr.Interface(fn=respond_to_text, inputs="text", outputs="text")
|
65 |
+
iface.launch()
|
|
|
|
|
66 |
|
67 |
|
68 |
# import gradio as gr
|