mgokg commited on
Commit
fa0bed9
·
verified ·
1 Parent(s): 2cd8c2f

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -4
app.py CHANGED
@@ -24,11 +24,11 @@ custom_css = """
24
 
25
  # Verwende die integrierten Embeddings von ChromaDB
26
  embedding_function = embedding_functions.DefaultEmbeddingFunction()
27
- client = Client("Qwen/Qwen2.5-72B-Instruct")
28
- #client = groq.Client(api_key=api_key)
29
 
30
  def update(message):
31
- client = groq.Client(api_key=api_key)
32
 
33
  try:
34
  # Use Llama 3 70B powered by Groq for text generation
@@ -102,7 +102,9 @@ def ask_llm(llm_prompt_input):
102
  # Füge die formatierten Ergebnisse zum Prompt hinzu
103
  enriched_prompt = f"{llm_prompt_input}\n\n### Verwandte Informationen:\n{''.join(formatted_results)}"
104
  #print(enriched_prompt)
105
- #update(enriched_prompt)
 
 
106
  # Führe die Abfrage des LLM durch
107
  result = client.predict(
108
  query=enriched_prompt,
 
24
 
25
  # Verwende die integrierten Embeddings von ChromaDB
26
  embedding_function = embedding_functions.DefaultEmbeddingFunction()
27
+ #client = Client("Qwen/Qwen2.5-72B-Instruct")
28
+ client = groq.Client(api_key=api_key)
29
 
30
  def update(message):
31
+ #client = groq.Client(api_key=api_key)
32
 
33
  try:
34
  # Use Llama 3 70B powered by Groq for text generation
 
102
  # Füge die formatierten Ergebnisse zum Prompt hinzu
103
  enriched_prompt = f"{llm_prompt_input}\n\n### Verwandte Informationen:\n{''.join(formatted_results)}"
104
  #print(enriched_prompt)
105
+ result = update(enriched_prompt)
106
+ result=gr.Markdown(result)
107
+ return result
108
  # Führe die Abfrage des LLM durch
109
  result = client.predict(
110
  query=enriched_prompt,