mgokg commited on
Commit
2cd8c2f
·
verified ·
1 Parent(s): e64cee2

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -2
app.py CHANGED
@@ -24,7 +24,7 @@ custom_css = """
24
 
25
  # Verwende die integrierten Embeddings von ChromaDB
26
  embedding_function = embedding_functions.DefaultEmbeddingFunction()
27
- #client = Client("Qwen/Qwen2.5-72B-Instruct")
28
  #client = groq.Client(api_key=api_key)
29
 
30
  def update(message):
@@ -102,7 +102,7 @@ def ask_llm(llm_prompt_input):
102
  # Füge die formatierten Ergebnisse zum Prompt hinzu
103
  enriched_prompt = f"{llm_prompt_input}\n\n### Verwandte Informationen:\n{''.join(formatted_results)}"
104
  #print(enriched_prompt)
105
- update(enriched_prompt)
106
  # Führe die Abfrage des LLM durch
107
  result = client.predict(
108
  query=enriched_prompt,
 
24
 
25
  # Verwende die integrierten Embeddings von ChromaDB
26
  embedding_function = embedding_functions.DefaultEmbeddingFunction()
27
+ client = Client("Qwen/Qwen2.5-72B-Instruct")
28
  #client = groq.Client(api_key=api_key)
29
 
30
  def update(message):
 
102
  # Füge die formatierten Ergebnisse zum Prompt hinzu
103
  enriched_prompt = f"{llm_prompt_input}\n\n### Verwandte Informationen:\n{''.join(formatted_results)}"
104
  #print(enriched_prompt)
105
+ #update(enriched_prompt)
106
  # Führe die Abfrage des LLM durch
107
  result = client.predict(
108
  query=enriched_prompt,