Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -24,11 +24,11 @@ custom_css = """
|
|
24 |
|
25 |
# Verwende die integrierten Embeddings von ChromaDB
|
26 |
embedding_function = embedding_functions.DefaultEmbeddingFunction()
|
27 |
-
client = Client("Qwen/Qwen2.5-72B-Instruct")
|
28 |
-
|
29 |
|
30 |
def update(message):
|
31 |
-
client = groq.Client(api_key=api_key)
|
32 |
|
33 |
try:
|
34 |
# Use Llama 3 70B powered by Groq for text generation
|
@@ -102,7 +102,9 @@ def ask_llm(llm_prompt_input):
|
|
102 |
# Füge die formatierten Ergebnisse zum Prompt hinzu
|
103 |
enriched_prompt = f"{llm_prompt_input}\n\n### Verwandte Informationen:\n{''.join(formatted_results)}"
|
104 |
#print(enriched_prompt)
|
105 |
-
|
|
|
|
|
106 |
# Führe die Abfrage des LLM durch
|
107 |
result = client.predict(
|
108 |
query=enriched_prompt,
|
|
|
24 |
|
25 |
# Verwende die integrierten Embeddings von ChromaDB
|
26 |
embedding_function = embedding_functions.DefaultEmbeddingFunction()
|
27 |
+
#client = Client("Qwen/Qwen2.5-72B-Instruct")
|
28 |
+
client = groq.Client(api_key=api_key)
|
29 |
|
30 |
def update(message):
|
31 |
+
#client = groq.Client(api_key=api_key)
|
32 |
|
33 |
try:
|
34 |
# Use Llama 3 70B powered by Groq for text generation
|
|
|
102 |
# Füge die formatierten Ergebnisse zum Prompt hinzu
|
103 |
enriched_prompt = f"{llm_prompt_input}\n\n### Verwandte Informationen:\n{''.join(formatted_results)}"
|
104 |
#print(enriched_prompt)
|
105 |
+
result = update(enriched_prompt)
|
106 |
+
result=gr.Markdown(result)
|
107 |
+
return result
|
108 |
# Führe die Abfrage des LLM durch
|
109 |
result = client.predict(
|
110 |
query=enriched_prompt,
|