Update app.py
Browse files
app.py
CHANGED
@@ -1,6 +1,7 @@
|
|
1 |
import gradio as gr
|
2 |
from huggingface_hub import InferenceClient
|
3 |
from datasets import load_dataset
|
|
|
4 |
|
5 |
# Função para carregar o dataset `aicoder69/aicoder69` com tratamento de erros
|
6 |
def load_aicoder_dataset():
|
@@ -66,16 +67,27 @@ def respond(
|
|
66 |
|
67 |
try:
|
68 |
print("Enviando solicitação ao modelo...")
|
69 |
-
|
70 |
-
|
71 |
-
|
72 |
-
|
73 |
-
|
74 |
-
|
75 |
-
|
76 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
77 |
except Exception as e:
|
78 |
-
print(f"Erro
|
79 |
return "Ocorreu um erro ao gerar uma resposta."
|
80 |
|
81 |
# Exemplo: Recuperar uma entrada do dataset
|
|
|
1 |
import gradio as gr
|
2 |
from huggingface_hub import InferenceClient
|
3 |
from datasets import load_dataset
|
4 |
+
import time
|
5 |
|
6 |
# Função para carregar o dataset `aicoder69/aicoder69` com tratamento de erros
|
7 |
def load_aicoder_dataset():
|
|
|
67 |
|
68 |
try:
|
69 |
print("Enviando solicitação ao modelo...")
|
70 |
+
# Ajuste o tempo limite e tente novamente caso haja falha
|
71 |
+
retries = 3
|
72 |
+
for attempt in range(retries):
|
73 |
+
try:
|
74 |
+
response = client.chat_completion(
|
75 |
+
messages,
|
76 |
+
max_tokens=max_tokens,
|
77 |
+
temperature=temperature,
|
78 |
+
top_p=top_p,
|
79 |
+
).choices[0].message.content
|
80 |
+
print("Resposta recebida com sucesso!")
|
81 |
+
return response
|
82 |
+
except Exception as e:
|
83 |
+
print(f"Erro na tentativa {attempt + 1}/{retries}: {e}")
|
84 |
+
if attempt < retries - 1:
|
85 |
+
print("Tentando novamente...")
|
86 |
+
time.sleep(2) # Pausa entre tentativas
|
87 |
+
else:
|
88 |
+
return f"Erro ao gerar resposta após {retries} tentativas."
|
89 |
except Exception as e:
|
90 |
+
print(f"Erro ao enviar solicitação: {e}")
|
91 |
return "Ocorreu um erro ao gerar uma resposta."
|
92 |
|
93 |
# Exemplo: Recuperar uma entrada do dataset
|