Aniun commited on
Commit
26c89ce
·
verified ·
1 Parent(s): 8c2a85b

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -9
app.py CHANGED
@@ -61,7 +61,7 @@ class OurLLM():
61
  用户会输入一段描述他们搜索需求的文本,请你生成与之相关的关键词列表。
62
  你需要返回一个可以直接被 json 库解析的响应,不要使用任何 markdown 格式,包含以下内容:
63
  {
64
- 'keywords': [关键词列表],
65
  }
66
  重要提示:
67
  1. 关键词应该包含同义词、近义词、上位词、下位词
@@ -69,13 +69,13 @@ class OurLLM():
69
  3. 描述句子要涵盖不同的应用场景和用途
70
  4. 所有内容必须与原始搜索意图高度相关
71
  5. 扩展搜索意图到相关的应用场景和工具,例如:
72
- - 如果搜索"PDF转MD",应包含PDF内容提取、PDF解析工具、PDF数据处理等
73
- - 如果搜索"图片压缩",应包含批量压缩工具、图片格式转换等
74
- - 如果搜索"代码格式化",应包含代码美化工具、语法检查器、代码风格统一等
75
- - 如果搜索"文本翻译",应包含机器翻译API、多语言翻译工具、离线翻译软件等
76
- - 如果搜索"数据可视化",应包含图表生成工具、数据分析库、交互式图表等
77
- - 如果搜索"网络爬虫",应包含数据采集框架、反爬虫绕过、数据解析工具等
78
- - 如果搜索"API测试",应包含接口测试工具、性能监控、自动化测试框架等
79
  6. 所有内容主要使用英文表达,并对部分关键词添加额外的中文表示
80
  """),
81
  "github_match": dedent("""
@@ -291,7 +291,7 @@ def main():
291
 
292
  response["content"] = "开始通过 LLM 评分得到最匹配的仓库..."
293
  yield history + [response]
294
- simple_str, simple_list = search.search(json_obj, 60)
295
  query = '用户需要的仓库内容:' + prompt + '\n 搜索结果列表:' + simple_str
296
  out = llm.ask_question(query, system_prompt=llm.get_system_prompt("github_score")).content
297
 
 
61
  用户会输入一段描述他们搜索需求的文本,请你生成与之相关的关键词列表。
62
  你需要返回一个可以直接被 json 库解析的响应,不要使用任何 markdown 格式,包含以下内容:
63
  {
64
+ "keywords": [关键词列表],
65
  }
66
  重要提示:
67
  1. 关键词应该包含同义词、近义词、上位词、下位词
 
69
  3. 描述句子要涵盖不同的应用场景和用途
70
  4. 所有内容必须与原始搜索意图高度相关
71
  5. 扩展搜索意图到相关的应用场景和工具,例如:
72
+ - 如果搜索"PDF转MD",应包含PDF内容提取、PDF解析工具、PDF数据处理等
73
+ - 如果搜索"图片压缩",应包含批量压缩工具、图片格式转换等
74
+ - 如果搜索"代码格式化",应包含代码美化工具、语法检查器、代码风格统一等
75
+ - 如果搜索"文本翻译",应包含机器翻译API、多语言翻译工具、离线翻译软件等
76
+ - 如果搜索"数据可视化",应包含图表生成工具、数据分析库、交互式图表等
77
+ - 如果搜索"网络爬虫",应包含数据采集框架、反爬虫绕过、数据解析工具等
78
+ - 如果搜索"API测试",应包含接口测试工具、性能监控、自动化测试框架等
79
  6. 所有内容主要使用英文表达,并对部分关键词添加额外的中文表示
80
  """),
81
  "github_match": dedent("""
 
291
 
292
  response["content"] = "开始通过 LLM 评分得到最匹配的仓库..."
293
  yield history + [response]
294
+ simple_str, simple_list = search.search(json_obj, 40)
295
  query = '用户需要的仓库内容:' + prompt + '\n 搜索结果列表:' + simple_str
296
  out = llm.ask_question(query, system_prompt=llm.get_system_prompt("github_score")).content
297