Spaces:
Running
Running
Merge branch 'master' into huggingface
Browse files- README.md +55 -46
- config.py +4 -0
- crazy_functional.py +16 -13
- crazy_functions/crazy_functions_test.py +41 -9
- crazy_functions/联网的ChatGPT.py +102 -0
- main.py +6 -3
- request_llm/bridge_all.py +26 -6
- request_llm/bridge_chatgpt.py +5 -3
- toolbox.py +17 -2
README.md
CHANGED
@@ -22,7 +22,7 @@ If you like this project, please give it a Star. If you've come up with more use
|
|
22 |
>
|
23 |
> 2.本项目中每个文件的功能都在自译解[`self_analysis.md`](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A)详细说明。随着版本的迭代,您也可以随时自行点击相关函数插件,调用GPT重新生成项目的自我解析报告。常见问题汇总在[`wiki`](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98)当中。
|
24 |
>
|
25 |
-
|
26 |
|
27 |
<div align="center">
|
28 |
|
@@ -40,6 +40,7 @@ If you like this project, please give it a Star. If you've come up with more use
|
|
40 |
Latex全文翻译、润色 | [函数插件] 一键翻译或润色latex论文
|
41 |
批量注释生成 | [函数插件] 一键批量生成函数注释
|
42 |
chat分析报告生成 | [函数插件] 运行后自动生成总结汇报
|
|
|
43 |
[arxiv小助手](https://www.bilibili.com/video/BV1LM4y1279X) | [函数插件] 输入arxiv文章url即可一键翻译摘要+下载PDF
|
44 |
[PDF论文全文翻译功能](https://www.bilibili.com/video/BV1KT411x7Wn) | [函数插件] PDF论文提取题目&摘要+翻译全文(多线程)
|
45 |
[谷歌学术统合小助手](https://www.bilibili.com/video/BV19L411U7ia) | [函数插件] 给定任意谷歌学术搜索页面URL,让gpt帮你选择有趣的文章
|
@@ -53,7 +54,7 @@ huggingface免科学上网[在线体验](https://huggingface.co/spaces/qingxu98/
|
|
53 |
</div>
|
54 |
|
55 |
|
56 |
-
-
|
57 |
<div align="center">
|
58 |
<img src="https://user-images.githubusercontent.com/96192199/230361456-61078362-a966-4eb5-b49e-3c62ef18b860.gif" width="700" >
|
59 |
</div>
|
@@ -101,8 +102,8 @@ cd chatgpt_academic
|
|
101 |
|
102 |
在`config.py`中,配置 海外Proxy 和 OpenAI API KEY,说明如下
|
103 |
```
|
104 |
-
1. 如果你在国内,需要设置海外代理才能够顺利使用
|
105 |
-
2. 配置 OpenAI API KEY
|
106 |
3. 与代理网络有关的issue(网络超时、代理不起作用)汇总到 https://github.com/binary-husky/chatgpt_academic/issues/1
|
107 |
```
|
108 |
(P.S. 程序运行时会优先检查是否存在名为`config_private.py`的私密配置文件,并用其中的配置覆盖`config.py`的同名配置。因此,如果您能理解我们的配置读取逻辑,我们强烈建议您在`config.py`旁边创建一个名为`config_private.py`的新配置文件,并把`config.py`中的配置转移(复制)到`config_private.py`中。`config_private.py`不受git管控,可以让您的隐私信息更加安全。)
|
@@ -110,19 +111,17 @@ cd chatgpt_academic
|
|
110 |
|
111 |
3. 安装依赖
|
112 |
```sh
|
113 |
-
#
|
114 |
-
python -m pip install -r requirements.txt
|
115 |
-
|
116 |
-
|
117 |
-
#
|
118 |
-
#
|
119 |
-
#
|
120 |
-
|
121 |
-
# 备注:使用官方pip源或者阿里pip源,其他pip源(如一些大学的pip)有可能出问题,临时换源方法:
|
122 |
-
# python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
|
123 |
```
|
124 |
|
125 |
-
如果需要支持清华ChatGLM
|
126 |
```sh
|
127 |
python -m pip install -r request_llm/requirements_chatglm.txt
|
128 |
```
|
@@ -135,54 +134,48 @@ python main.py
|
|
135 |
5. 测试函数插件
|
136 |
```
|
137 |
- 测试Python项目分析
|
138 |
-
input区域 输入 `./crazy_functions/test_project/python/dqn` , 然后点击 "解析整个Python项目"
|
139 |
-
|
|
|
140 |
点击 "[多线程Demo] 解析此项目本身(源码自译解)"
|
141 |
-
-
|
142 |
点击 "[函数插件模板Demo] 历史上的今天"
|
143 |
- 函数插件区下拉菜单中有更多功能可供选择
|
144 |
```
|
145 |
|
146 |
-
## 安装-方法2:使用
|
147 |
|
148 |
1. 仅ChatGPT(推荐大多数人选择)
|
|
|
149 |
``` sh
|
150 |
# 下载项目
|
151 |
git clone https://github.com/binary-husky/chatgpt_academic.git
|
152 |
cd chatgpt_academic
|
153 |
-
# 配置
|
154 |
用任意文本编辑器编辑 config.py
|
155 |
# 安装
|
156 |
docker build -t gpt-academic .
|
157 |
-
|
158 |
docker run --rm -it --net=host gpt-academic
|
159 |
-
|
160 |
-
|
161 |
-
## 测试函数插件模板函数(要求gpt回答历史上的今天发生了什么),您可以根据此函数为模板,实现更复杂的功能
|
162 |
-
点击 "[函数插件模板Demo] 历史上的今天"
|
163 |
-
## 测试给Latex项目写摘要
|
164 |
-
input区域 输入 ./crazy_functions/test_project/latex/attention , 然后点击 "读Tex论文写摘要"
|
165 |
-
## 测试Python项目分析
|
166 |
-
input区域 输入 ./crazy_functions/test_project/python/dqn , 然后点击 "解析整个Python项目"
|
167 |
-
|
168 |
-
函数插件区下拉菜单中有更多功能可供选择
|
169 |
```
|
170 |
|
171 |
-
2. ChatGPT+ChatGLM(需要对
|
172 |
|
173 |
``` sh
|
174 |
-
# 修改
|
175 |
cd docs && nano Dockerfile+ChatGLM
|
176 |
-
#
|
177 |
docker build -t gpt-academic --network=host -f Dockerfile+ChatGLM .
|
178 |
-
#
|
179 |
docker run --rm -it --net=host --gpus=all gpt-academic
|
180 |
-
#
|
181 |
docker run --rm -it --net=host --gpus=all gpt-academic bash
|
182 |
```
|
183 |
|
184 |
|
185 |
-
## 安装-方法3
|
186 |
|
187 |
1. 远程云服务器部署
|
188 |
请访问[部署wiki-1](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BA%91%E6%9C%8D%E5%8A%A1%E5%99%A8%E8%BF%9C%E7%A8%8B%E9%83%A8%E7%BD%B2%E6%8C%87%E5%8D%97)
|
@@ -201,7 +194,9 @@ docker run --rm -it --net=host --gpus=all gpt-academic bash
|
|
201 |
|
202 |
---
|
203 |
|
204 |
-
##
|
|
|
|
|
205 |
任意文本编辑器打开`core_functional.py`,添加条目如下,然后重启程序即可。(如果按钮已经添加成功并可见,那么前缀、后缀都支持热修改,无需重启程序即可生效。)
|
206 |
例如
|
207 |
```
|
@@ -217,19 +212,25 @@ docker run --rm -it --net=host --gpus=all gpt-academic bash
|
|
217 |
<img src="https://user-images.githubusercontent.com/96192199/226899272-477c2134-ed71-4326-810c-29891fe4a508.png" width="500" >
|
218 |
</div>
|
219 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
220 |
---
|
221 |
|
222 |
|
223 |
## 部分功能展示
|
224 |
|
225 |
-
|
226 |
|
227 |
<div align="center">
|
228 |
<img src="https://user-images.githubusercontent.com/96192199/228737599-bf0a9d9c-1808-4f43-ae15-dfcc7af0f295.png" width="800" >
|
229 |
</div>
|
230 |
|
231 |
-
|
232 |
-
### 如果一个程序能够��懂并剖析自己:
|
233 |
|
234 |
<div align="center">
|
235 |
<img src="https://user-images.githubusercontent.com/96192199/226936850-c77d7183-0749-4c1c-9875-fd4891842d0c.png" width="800" >
|
@@ -239,7 +240,7 @@ docker run --rm -it --net=host --gpus=all gpt-academic bash
|
|
239 |
<img src="https://user-images.githubusercontent.com/96192199/226936618-9b487e4b-ab5b-4b6e-84c6-16942102e917.png" width="800" >
|
240 |
</div>
|
241 |
|
242 |
-
|
243 |
<div align="center">
|
244 |
<img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="800" >
|
245 |
</div>
|
@@ -248,31 +249,39 @@ docker run --rm -it --net=host --gpus=all gpt-academic bash
|
|
248 |
<img src="https://user-images.githubusercontent.com/96192199/226969067-968a27c1-1b9c-486b-8b81-ab2de8d3f88a.png" width="800" >
|
249 |
</div>
|
250 |
|
251 |
-
|
252 |
<div align="center">
|
253 |
<img src="https://user-images.githubusercontent.com/96192199/227504406-86ab97cd-f208-41c3-8e4a-7000e51cf980.png" width="800" >
|
254 |
</div>
|
255 |
|
256 |
-
|
257 |
<div align="center">
|
258 |
<img src="https://user-images.githubusercontent.com/96192199/227503770-fe29ce2c-53fd-47b0-b0ff-93805f0c2ff4.png" height="300" >
|
259 |
<img src="https://user-images.githubusercontent.com/96192199/227504617-7a497bb3-0a2a-4b50-9a8a-95ae60ea7afd.png" height="300" >
|
260 |
<img src="https://user-images.githubusercontent.com/96192199/227504005-efeaefe0-b687-49d0-bf95-2d7b7e66c348.png" height="300" >
|
261 |
</div>
|
262 |
|
263 |
-
|
264 |
<div align="center">
|
265 |
<img src="https://user-images.githubusercontent.com/96192199/229288270-093643c1-0018-487a-81e6-1d7809b6e90f.png" height="400" >
|
266 |
<img src="https://user-images.githubusercontent.com/96192199/227504931-19955f78-45cd-4d1c-adac-e71e50957915.png" height="400" >
|
267 |
</div>
|
268 |
|
269 |
|
270 |
-
|
271 |
|
272 |
<div align="center">
|
273 |
<img src="https://user-images.githubusercontent.com/96192199/229720562-fe6c3508-6142-4635-a83d-21eb3669baee.png" height="400" >
|
274 |
</div>
|
275 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
276 |
## Todo 与 版本规划:
|
277 |
- version 3.2+ (todo): 函数插件支持更多参数接口
|
278 |
- version 3.1: 支持同时问询多个gpt模型!支持api2d,支持多个apikey负载均衡
|
|
|
22 |
>
|
23 |
> 2.本项目中每个文件的功能都在自译解[`self_analysis.md`](https://github.com/binary-husky/chatgpt_academic/wiki/chatgpt-academic%E9%A1%B9%E7%9B%AE%E8%87%AA%E8%AF%91%E8%A7%A3%E6%8A%A5%E5%91%8A)详细说明。随着版本的迭代,您也可以随时自行点击相关函数插件,调用GPT重新生成项目的自我解析报告。常见问题汇总在[`wiki`](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%B8%B8%E8%A7%81%E9%97%AE%E9%A2%98)当中。
|
24 |
>
|
25 |
+
> 3.已支持OpenAI和API2D的api-key共存,可在配置文件中填写如`API_KEY="openai-key1,openai-key2,api2d-key3"`。需要临时更换`API_KEY`时,在输入区输入临时的`API_KEY`然后回车键提交后即可生效。
|
26 |
|
27 |
<div align="center">
|
28 |
|
|
|
40 |
Latex全文翻译、润色 | [函数插件] 一键翻译或润色latex论文
|
41 |
批量注释生成 | [函数插件] 一键批量生成函数注释
|
42 |
chat分析报告生成 | [函数插件] 运行后自动生成总结汇报
|
43 |
+
Markdown中英互译 | [函数插件] 看到上面5种语言的[README](https://github.com/binary-husky/chatgpt_academic/blob/master/docs/README_EN.md)了吗?
|
44 |
[arxiv小助手](https://www.bilibili.com/video/BV1LM4y1279X) | [函数插件] 输入arxiv文章url即可一键翻译摘要+下载PDF
|
45 |
[PDF论文全文翻译功能](https://www.bilibili.com/video/BV1KT411x7Wn) | [函数插件] PDF论文提取题目&摘要+翻译全文(多线程)
|
46 |
[谷歌学术统合小助手](https://www.bilibili.com/video/BV19L411U7ia) | [函数插件] 给定任意谷歌学术搜索页面URL,让gpt帮你选择有趣的文章
|
|
|
54 |
</div>
|
55 |
|
56 |
|
57 |
+
- 新界面(修改`config.py`中的LAYOUT选项即可实现“左右布局”和“上下布局”的切换)
|
58 |
<div align="center">
|
59 |
<img src="https://user-images.githubusercontent.com/96192199/230361456-61078362-a966-4eb5-b49e-3c62ef18b860.gif" width="700" >
|
60 |
</div>
|
|
|
102 |
|
103 |
在`config.py`中,配置 海外Proxy 和 OpenAI API KEY,说明如下
|
104 |
```
|
105 |
+
1. 如果你在国内,需要设置海外代理才能够顺利使用OpenAI API,设置方法请仔细阅读config.py(1.修改其中的USE_PROXY为True; 2.按照说明修改其中的proxies)。
|
106 |
+
2. 配置 OpenAI API KEY。支持任意数量的OpenAI的密钥和API2D的密钥共存/负载均衡,多个KEY用英文逗号分隔即可,例如输入 API_KEY="OpenAI密钥1,API2D密钥2,OpenAI密钥3,OpenAI密钥4"
|
107 |
3. 与代理网络有关的issue(网络超时、代理不起作用)汇总到 https://github.com/binary-husky/chatgpt_academic/issues/1
|
108 |
```
|
109 |
(P.S. 程序运行时会优先检查是否存在名为`config_private.py`的私密配置文件,并用其中的配置覆盖`config.py`的同名配置。因此,如果您能理解我们的配置读取逻辑,我们强烈建议您在`config.py`旁边创建一个名为`config_private.py`的新配置文件,并把`config.py`中的配置转移(复制)到`config_private.py`中。`config_private.py`不受git管控,可以让您的隐私信息更加安全。)
|
|
|
111 |
|
112 |
3. 安装依赖
|
113 |
```sh
|
114 |
+
# (选择I: 如熟悉python)推荐
|
115 |
+
python -m pip install -r requirements.txt
|
116 |
+
# 备注:使用官方pip源或者阿里pip源,其他pip源(如一些大学的pip)有可能出问题,临时换源方法:python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/
|
117 |
+
|
118 |
+
# (选择II: 如不熟悉python)使用anaconda,步骤也是类似的:
|
119 |
+
# (II-1)conda create -n gptac_venv python=3.11
|
120 |
+
# (II-2)conda activate gptac_venv
|
121 |
+
# (II-3)python -m pip install -r requirements.txt
|
|
|
|
|
122 |
```
|
123 |
|
124 |
+
如果需要支持清华ChatGLM后端,需要额��安装更多依赖(前提条件:熟悉python + 电脑配置够强):
|
125 |
```sh
|
126 |
python -m pip install -r request_llm/requirements_chatglm.txt
|
127 |
```
|
|
|
134 |
5. 测试函数插件
|
135 |
```
|
136 |
- 测试Python项目分析
|
137 |
+
(选择1)input区域 输入 `./crazy_functions/test_project/python/dqn` , 然后点击 "解析整个Python项目"
|
138 |
+
(选择2)展开文件上传区,将python文件/包含python文件的压缩包拖拽进去,在出现反馈提示后, 然后点击 "解析整个Python项目"
|
139 |
+
- 测试自我代码解读(本项目自译解)
|
140 |
点击 "[多线程Demo] 解析此项目本身(源码自译解)"
|
141 |
+
- 测试函数插件模板函数(要求gpt回答历史上的今天发生了什么),您可以根据此函数为模板,实现更复杂的功能
|
142 |
点击 "[函数插件模板Demo] 历史上的今天"
|
143 |
- 函数插件区下拉菜单中有更多功能可供选择
|
144 |
```
|
145 |
|
146 |
+
## 安装-方法2:使用Docker
|
147 |
|
148 |
1. 仅ChatGPT(推荐大多数人选择)
|
149 |
+
|
150 |
``` sh
|
151 |
# 下载项目
|
152 |
git clone https://github.com/binary-husky/chatgpt_academic.git
|
153 |
cd chatgpt_academic
|
154 |
+
# 配置 “海外Proxy”, “API_KEY” 以及 “WEB_PORT” (例如50923) 等
|
155 |
用任意文本编辑器编辑 config.py
|
156 |
# 安装
|
157 |
docker build -t gpt-academic .
|
158 |
+
#(最后一步-选择1)在Linux环境下,用`--net=host`更方便快捷
|
159 |
docker run --rm -it --net=host gpt-academic
|
160 |
+
#(最后一步-选择2)在macOS/windows环境下,只能用-p选项将容器上的端口(例如50923)暴露给主机上的端口
|
161 |
+
docker run --rm -it -p 50923:50923 gpt-academic
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
162 |
```
|
163 |
|
164 |
+
2. ChatGPT+ChatGLM(需要对Docker熟悉 + 读懂Dockerfile + 电脑配置够强)
|
165 |
|
166 |
``` sh
|
167 |
+
# 修改Dockerfile
|
168 |
cd docs && nano Dockerfile+ChatGLM
|
169 |
+
# 构建 (Dockerfile+ChatGLM在docs路径下,请先cd docs)
|
170 |
docker build -t gpt-academic --network=host -f Dockerfile+ChatGLM .
|
171 |
+
# 运行 (1) 直接运行:
|
172 |
docker run --rm -it --net=host --gpus=all gpt-academic
|
173 |
+
# 运行 (2) 我想运行之前进容器做一些调整:
|
174 |
docker run --rm -it --net=host --gpus=all gpt-academic bash
|
175 |
```
|
176 |
|
177 |
|
178 |
+
## 安装-方法3:其他部署方式(需要云服务器知识与经验)
|
179 |
|
180 |
1. 远程云服务器部署
|
181 |
请访问[部署wiki-1](https://github.com/binary-husky/chatgpt_academic/wiki/%E4%BA%91%E6%9C%8D%E5%8A%A1%E5%99%A8%E8%BF%9C%E7%A8%8B%E9%83%A8%E7%BD%B2%E6%8C%87%E5%8D%97)
|
|
|
194 |
|
195 |
---
|
196 |
|
197 |
+
## 自定义新的便捷按钮 / 自定义函数插件
|
198 |
+
|
199 |
+
1. 自定义新的便捷按钮(学术快捷键)
|
200 |
任意文本编辑器打开`core_functional.py`,添加条目如下,然后重启程序即可。(如果按钮已经添加成功并可见,那么前缀、后缀都支持热修改,无需重启程序即可生效。)
|
201 |
例如
|
202 |
```
|
|
|
212 |
<img src="https://user-images.githubusercontent.com/96192199/226899272-477c2134-ed71-4326-810c-29891fe4a508.png" width="500" >
|
213 |
</div>
|
214 |
|
215 |
+
2. 自定义函数插件
|
216 |
+
|
217 |
+
编写强大的函数插件来执行任何你想得到的和想不到的任务。
|
218 |
+
本项目的插件编写、调试难度很低,只要您具备一定的python基础知识,就可以仿照我们提供的模板实现自己的插件功能。
|
219 |
+
详情请参考[函数插件指南](https://github.com/binary-husky/chatgpt_academic/wiki/%E5%87%BD%E6%95%B0%E6%8F%92%E4%BB%B6%E6%8C%87%E5%8D%97)。
|
220 |
+
|
221 |
+
|
222 |
---
|
223 |
|
224 |
|
225 |
## 部分功能展示
|
226 |
|
227 |
+
1. 图片显示:
|
228 |
|
229 |
<div align="center">
|
230 |
<img src="https://user-images.githubusercontent.com/96192199/228737599-bf0a9d9c-1808-4f43-ae15-dfcc7af0f295.png" width="800" >
|
231 |
</div>
|
232 |
|
233 |
+
2. 本项目的代码自译解(如果一个程序能够读懂并剖析自己):
|
|
|
234 |
|
235 |
<div align="center">
|
236 |
<img src="https://user-images.githubusercontent.com/96192199/226936850-c77d7183-0749-4c1c-9875-fd4891842d0c.png" width="800" >
|
|
|
240 |
<img src="https://user-images.githubusercontent.com/96192199/226936618-9b487e4b-ab5b-4b6e-84c6-16942102e917.png" width="800" >
|
241 |
</div>
|
242 |
|
243 |
+
3. 其他任意Python/Cpp/Java/Go/Rect/...项目剖析:
|
244 |
<div align="center">
|
245 |
<img src="https://user-images.githubusercontent.com/96192199/226935232-6b6a73ce-8900-4aee-93f9-733c7e6fef53.png" width="800" >
|
246 |
</div>
|
|
|
249 |
<img src="https://user-images.githubusercontent.com/96192199/226969067-968a27c1-1b9c-486b-8b81-ab2de8d3f88a.png" width="800" >
|
250 |
</div>
|
251 |
|
252 |
+
4. Latex论文一键阅读理解与摘要生成
|
253 |
<div align="center">
|
254 |
<img src="https://user-images.githubusercontent.com/96192199/227504406-86ab97cd-f208-41c3-8e4a-7000e51cf980.png" width="800" >
|
255 |
</div>
|
256 |
|
257 |
+
5. 自动报告生成
|
258 |
<div align="center">
|
259 |
<img src="https://user-images.githubusercontent.com/96192199/227503770-fe29ce2c-53fd-47b0-b0ff-93805f0c2ff4.png" height="300" >
|
260 |
<img src="https://user-images.githubusercontent.com/96192199/227504617-7a497bb3-0a2a-4b50-9a8a-95ae60ea7afd.png" height="300" >
|
261 |
<img src="https://user-images.githubusercontent.com/96192199/227504005-efeaefe0-b687-49d0-bf95-2d7b7e66c348.png" height="300" >
|
262 |
</div>
|
263 |
|
264 |
+
6. 模块化功能设计
|
265 |
<div align="center">
|
266 |
<img src="https://user-images.githubusercontent.com/96192199/229288270-093643c1-0018-487a-81e6-1d7809b6e90f.png" height="400" >
|
267 |
<img src="https://user-images.githubusercontent.com/96192199/227504931-19955f78-45cd-4d1c-adac-e71e50957915.png" height="400" >
|
268 |
</div>
|
269 |
|
270 |
|
271 |
+
7. 源代码转译英文
|
272 |
|
273 |
<div align="center">
|
274 |
<img src="https://user-images.githubusercontent.com/96192199/229720562-fe6c3508-6142-4635-a83d-21eb3669baee.png" height="400" >
|
275 |
</div>
|
276 |
|
277 |
+
8. 互联网在线信息综合
|
278 |
+
|
279 |
+
<div align="center">
|
280 |
+
<img src="https://user-images.githubusercontent.com/96192199/233575247-fb00819e-6d1b-4bb7-bd54-1d7528f03dd9.png" width="800" >
|
281 |
+
</div>
|
282 |
+
|
283 |
+
|
284 |
+
|
285 |
## Todo 与 版本规划:
|
286 |
- version 3.2+ (todo): 函数插件支持更多参数接口
|
287 |
- version 3.1: 支持同时问询多个gpt模型!支持api2d,支持多个apikey负载均衡
|
config.py
CHANGED
@@ -56,3 +56,7 @@ CONCURRENT_COUNT = 100
|
|
56 |
# 设置用户名和密码(不需要修改)(相关功能不稳定,与gradio版本和网络都相关,如果本地使用不建议加这个)
|
57 |
# [("username", "password"), ("username2", "password2"), ...]
|
58 |
AUTHENTICATION = []
|
|
|
|
|
|
|
|
|
|
56 |
# 设置用户名和密码(不需要修改)(相关功能不稳定,与gradio版本和网络都相关,如果本地使用不建议加这个)
|
57 |
# [("username", "password"), ("username2", "password2"), ...]
|
58 |
AUTHENTICATION = []
|
59 |
+
|
60 |
+
# 重新URL重新定向,实现更换API_URL的作用(常规情况下,不要修改!!)
|
61 |
+
# 格式 {"https://api.openai.com/v1/chat/completions": "重定向的URL"}
|
62 |
+
API_URL_REDIRECT = {}
|
crazy_functional.py
CHANGED
@@ -173,20 +173,23 @@ def get_crazy_functions():
|
|
173 |
|
174 |
###################### 第三组插件 ###########################
|
175 |
# [第三组插件]: 尚未充分测试的函数插件,放在这里
|
176 |
-
|
177 |
-
|
178 |
-
|
179 |
-
"
|
180 |
-
|
181 |
-
|
182 |
-
|
183 |
-
|
184 |
-
})
|
185 |
-
|
186 |
-
except Exception as err:
|
187 |
-
print(f'[下载arxiv论文并翻译摘要] 插件导入失败 {str(err)}')
|
188 |
|
189 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
190 |
|
191 |
###################### 第n组插件 ###########################
|
192 |
return function_plugins
|
|
|
173 |
|
174 |
###################### 第三组插件 ###########################
|
175 |
# [第三组插件]: 尚未充分测试的函数插件,放在这里
|
176 |
+
from crazy_functions.下载arxiv论文翻译摘要 import 下载arxiv论文并翻译摘要
|
177 |
+
function_plugins.update({
|
178 |
+
"一键下载arxiv论文并翻译摘要(先在input输入编号,如1812.10695)": {
|
179 |
+
"Color": "stop",
|
180 |
+
"AsButton": False, # 加入下拉菜单中
|
181 |
+
"Function": HotReload(下载arxiv论文并翻译摘要)
|
182 |
+
}
|
183 |
+
})
|
|
|
|
|
|
|
|
|
184 |
|
185 |
+
from crazy_functions.联网的ChatGPT import 连接网络回答问题
|
186 |
+
function_plugins.update({
|
187 |
+
"连接网络回答问题(先输入问题,再点击按钮,需要访问谷歌)": {
|
188 |
+
"Color": "stop",
|
189 |
+
"AsButton": False, # 加入下拉菜单中
|
190 |
+
"Function": HotReload(连接网络回答问题)
|
191 |
+
}
|
192 |
+
})
|
193 |
|
194 |
###################### 第n组插件 ###########################
|
195 |
return function_plugins
|
crazy_functions/crazy_functions_test.py
CHANGED
@@ -12,7 +12,7 @@ def validate_path():
|
|
12 |
sys.path.append(root_dir_assume)
|
13 |
|
14 |
validate_path() # validate path so you can run from base directory
|
15 |
-
|
16 |
from toolbox import get_conf, ChatBotWithCookies
|
17 |
proxies, WEB_PORT, LLM_MODEL, CONCURRENT_COUNT, AUTHENTICATION, CHATBOT_HEIGHT, LAYOUT, API_KEY = \
|
18 |
get_conf('proxies', 'WEB_PORT', 'LLM_MODEL', 'CONCURRENT_COUNT', 'AUTHENTICATION', 'CHATBOT_HEIGHT', 'LAYOUT', 'API_KEY')
|
@@ -79,14 +79,46 @@ def test_下载arxiv论文并翻译摘要():
|
|
79 |
for cookies, cb, hist, msg in 下载arxiv论文并翻译摘要(txt, llm_kwargs, plugin_kwargs, chatbot, history, system_prompt, web_port):
|
80 |
print(cb)
|
81 |
|
82 |
-
test_
|
83 |
-
|
84 |
-
|
85 |
-
|
86 |
-
|
87 |
-
|
88 |
-
|
89 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
90 |
|
91 |
input("程序完成,回车退出。")
|
92 |
print("退出。")
|
|
|
12 |
sys.path.append(root_dir_assume)
|
13 |
|
14 |
validate_path() # validate path so you can run from base directory
|
15 |
+
from colorful import *
|
16 |
from toolbox import get_conf, ChatBotWithCookies
|
17 |
proxies, WEB_PORT, LLM_MODEL, CONCURRENT_COUNT, AUTHENTICATION, CHATBOT_HEIGHT, LAYOUT, API_KEY = \
|
18 |
get_conf('proxies', 'WEB_PORT', 'LLM_MODEL', 'CONCURRENT_COUNT', 'AUTHENTICATION', 'CHATBOT_HEIGHT', 'LAYOUT', 'API_KEY')
|
|
|
79 |
for cookies, cb, hist, msg in 下载arxiv论文并翻译摘要(txt, llm_kwargs, plugin_kwargs, chatbot, history, system_prompt, web_port):
|
80 |
print(cb)
|
81 |
|
82 |
+
def test_联网回答问题():
|
83 |
+
from crazy_functions.联网的ChatGPT import 连接网络回答问题
|
84 |
+
# txt = "“我们称之为高效”是什么梗?"
|
85 |
+
# >> 从第0份、第1份、第2份搜索结果可以看出,“我们称之为高效”是指在游戏社区中,用户们用来形容一些游戏策略或行为非常高效且能够带来好的效果的用语。这个用语最初可能是在群星(Stellaris)这个游戏里面流行起来的,后来也传播到了其他游戏中,比如巨像(Titan)等游戏。其中第1份搜索结果中的一篇文章也指出,“我们称之为高效”这 一用语来源于群星(Stellaris)游戏中的一个情节。
|
86 |
+
# txt = "为什么说枪毙P社玩家没有一个冤枉的?"
|
87 |
+
# >> 它们都是关于一个知乎用户所发的帖子,引用了一群游戏玩家对于需要对P社玩家进行枪毙的讨论,这个话题的本质是玩家们对于P 社游戏中的政治与历史元素的不同看法,以及其中不少玩家以极端立场宣扬的想法和言论,因此有人就以枪毙这些玩家来回应此类言论。但是这个话题本身并没有实质内容,只是一个玩笑或者恶搞,并不应该被当做真实的态度或者观点,因此这种说法没有实际意义。
|
88 |
+
# txt = "谁是应急食品?"
|
89 |
+
# >> '根据以上搜索结果可以得知,应急食品是“原神”游戏中的角色派蒙的外号。'
|
90 |
+
# txt = "道路千万条,安全第一条。后面两句是?"
|
91 |
+
# >> '行车不规范,亲人两行泪。'
|
92 |
+
# txt = "What is in the canister?"
|
93 |
+
# >> Rainbow Six Siege 游戏中 Smoke 的 Canister 中装有何种物质相关的官方信息。
|
94 |
+
# txt = "失败的man是什么?"
|
95 |
+
# >> 根据第1份搜索结果,可以得知失败的man是指一位在B站购买了蜘蛛侠COS服后穿上后被网友嘲笑的UP主,而“失败的man”是蜘蛛侠英文名“spiderman”的谐音梗,并且网友们还 给这位UP主起了“苍蝇侠”的外号。因此,失败的man是指这位UP主在穿上蜘蛛侠COS服后被网友嘲笑的情况。
|
96 |
+
# txt = "老六是什么,起源于哪里?"
|
97 |
+
# >> 老六是网络流行语,最初起源于游戏《CSGO》,指游戏中玩家中独来独往、游离于队伍之外的“自由人”或玩得比较菜或者玩得比较阴险的人 ,后来逐渐演变成指玩得比较阴险的玩家。
|
98 |
+
# txt = "罗小黑战记因为什么经常被吐槽?"
|
99 |
+
# >> 3. 更新速度。罗小黑战记的更新时间不定,时而快时而慢,给观众留下了等待的时间过长的印象。
|
100 |
+
# txt = "沙特、伊朗最近的关系如何?"
|
101 |
+
# >> 最近在中国的斡旋下,沙特和伊朗于3月10日达成了恢复两国外交关系的协议,这表明两国关系已经重新回到正常化状态。
|
102 |
+
# txt = "You should have gone for the head. What does that mean?"
|
103 |
+
# >> The phrase "You should have gone for the head" is a quote from the Marvel movies, Avengers: Infinity War and Avengers: Endgame. It was spoken by the character Thanos in Infinity War and by Thor in Endgame.
|
104 |
+
txt = "AutoGPT是什么?"
|
105 |
+
# >> AutoGPT是一个基于GPT-4语言模型的开源应用程序。它可以根据用户需求自主执行任务,包括事件分析、营销方案撰写、代码编程、数学运算等等,并完全不需要用户插手。它可以自己思考,给出实现的步骤和实现细节,甚至可以自问自答执 行任务。最近它在GitHub上爆火,成为了业内最热门的项目之一。
|
106 |
+
# txt = "钟离带什么圣遗物?"
|
107 |
+
for cookies, cb, hist, msg in 连接网络回答问题(txt, llm_kwargs, plugin_kwargs, chatbot, history, system_prompt, web_port):
|
108 |
+
print("当前问答:", cb[-1][-1].replace("\n"," "))
|
109 |
+
for i, it in enumerate(cb): print亮蓝(it[0]); print亮黄(it[1])
|
110 |
+
|
111 |
+
# test_解析一个Python项目()
|
112 |
+
# test_Latex英文润色()
|
113 |
+
# test_Markdown中译英()
|
114 |
+
# test_批量翻译PDF文档()
|
115 |
+
# test_谷歌检索小助手()
|
116 |
+
# test_总结word文档()
|
117 |
+
# test_下载arxiv论文并翻���摘要()
|
118 |
+
# test_解析一个Cpp项目()
|
119 |
+
|
120 |
+
test_联网回答问题()
|
121 |
+
|
122 |
|
123 |
input("程序完成,回车退出。")
|
124 |
print("退出。")
|
crazy_functions/联网的ChatGPT.py
ADDED
@@ -0,0 +1,102 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
from toolbox import CatchException, update_ui
|
2 |
+
from .crazy_utils import request_gpt_model_in_new_thread_with_ui_alive, input_clipping
|
3 |
+
import requests
|
4 |
+
from bs4 import BeautifulSoup
|
5 |
+
from request_llm.bridge_all import model_info
|
6 |
+
|
7 |
+
def google(query, proxies):
|
8 |
+
query = query # 在此处替换您要搜索的关键词
|
9 |
+
url = f"https://www.google.com/search?q={query}"
|
10 |
+
headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36'}
|
11 |
+
response = requests.get(url, headers=headers, proxies=proxies)
|
12 |
+
soup = BeautifulSoup(response.content, 'html.parser')
|
13 |
+
results = []
|
14 |
+
for g in soup.find_all('div', class_='g'):
|
15 |
+
anchors = g.find_all('a')
|
16 |
+
if anchors:
|
17 |
+
link = anchors[0]['href']
|
18 |
+
if link.startswith('/url?q='):
|
19 |
+
link = link[7:]
|
20 |
+
if not link.startswith('http'):
|
21 |
+
continue
|
22 |
+
title = g.find('h3').text
|
23 |
+
item = {'title': title, 'link': link}
|
24 |
+
results.append(item)
|
25 |
+
|
26 |
+
for r in results:
|
27 |
+
print(r['link'])
|
28 |
+
return results
|
29 |
+
|
30 |
+
def scrape_text(url, proxies) -> str:
|
31 |
+
"""Scrape text from a webpage
|
32 |
+
|
33 |
+
Args:
|
34 |
+
url (str): The URL to scrape text from
|
35 |
+
|
36 |
+
Returns:
|
37 |
+
str: The scraped text
|
38 |
+
"""
|
39 |
+
headers = {
|
40 |
+
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36',
|
41 |
+
'Content-Type': 'text/plain',
|
42 |
+
}
|
43 |
+
try:
|
44 |
+
response = requests.get(url, headers=headers, proxies=proxies, timeout=8)
|
45 |
+
if response.encoding == "ISO-8859-1": response.encoding = response.apparent_encoding
|
46 |
+
except:
|
47 |
+
return "无法连接到该网页"
|
48 |
+
soup = BeautifulSoup(response.text, "html.parser")
|
49 |
+
for script in soup(["script", "style"]):
|
50 |
+
script.extract()
|
51 |
+
text = soup.get_text()
|
52 |
+
lines = (line.strip() for line in text.splitlines())
|
53 |
+
chunks = (phrase.strip() for line in lines for phrase in line.split(" "))
|
54 |
+
text = "\n".join(chunk for chunk in chunks if chunk)
|
55 |
+
return text
|
56 |
+
|
57 |
+
@CatchException
|
58 |
+
def 连接网络回答问题(txt, llm_kwargs, plugin_kwargs, chatbot, history, system_prompt, web_port):
|
59 |
+
"""
|
60 |
+
txt 输入栏用户输入的文本,例如需要翻译的一段话,再例如一个包含了待处理文件的路径
|
61 |
+
llm_kwargs gpt模型参数,如温度和top_p等,一般原样传递下去就行
|
62 |
+
plugin_kwargs 插件模型的参数,暂时没有用武之地
|
63 |
+
chatbot 聊天显示框的句柄,用于显示给用户
|
64 |
+
history 聊天历史,前情提要
|
65 |
+
system_prompt 给gpt的静默提醒
|
66 |
+
web_port 当前软件运行的端口号
|
67 |
+
"""
|
68 |
+
history = [] # 清空历史,以免输入溢出
|
69 |
+
chatbot.append((f"请结合互联网信息回答以下问题:{txt}",
|
70 |
+
"[Local Message] 请注意,您正在调用一个[函数插件]的模板,该模板可以实现ChatGPT联网信息综合。该函数面向希望实现更多有趣功能的开发者,它可以作为创建新功能函数的模板。您若希望分享新的功能模组,请不吝PR!"))
|
71 |
+
yield from update_ui(chatbot=chatbot, history=history) # 刷新界面 # 由于请求gpt需要一段时间,我们先及时地做一次界面更新
|
72 |
+
|
73 |
+
# ------------- < 第1步:爬取搜索引擎的结果 > -------------
|
74 |
+
from toolbox import get_conf
|
75 |
+
proxies, = get_conf('proxies')
|
76 |
+
urls = google(txt, proxies)
|
77 |
+
history = []
|
78 |
+
|
79 |
+
# ------------- < 第2步:依次访问网页 > -------------
|
80 |
+
max_search_result = 5 # 最多收纳多少个网页的结果
|
81 |
+
for index, url in enumerate(urls[:max_search_result]):
|
82 |
+
res = scrape_text(url['link'], proxies)
|
83 |
+
history.extend([f"第{index}份搜索结果:", res])
|
84 |
+
chatbot.append([f"第{index}份搜索结果:", res[:500]+"......"])
|
85 |
+
yield from update_ui(chatbot=chatbot, history=history) # 刷新界面 # 由于请求gpt需要一段时间,我们先及时地做一次界面更新
|
86 |
+
|
87 |
+
# ------------- < 第3步:ChatGPT综合 > -------------
|
88 |
+
i_say = f"从以上搜索结果中抽取信息,然后回答问题:{txt}"
|
89 |
+
i_say, history = input_clipping( # 裁剪输入,从最长的条目开始裁剪,防止爆token
|
90 |
+
inputs=i_say,
|
91 |
+
history=history,
|
92 |
+
max_token_limit=model_info[llm_kwargs['llm_model']]['max_token']*3//4
|
93 |
+
)
|
94 |
+
gpt_say = yield from request_gpt_model_in_new_thread_with_ui_alive(
|
95 |
+
inputs=i_say, inputs_show_user=i_say,
|
96 |
+
llm_kwargs=llm_kwargs, chatbot=chatbot, history=history,
|
97 |
+
sys_prompt="请从给定的若干条搜索结果中抽取信息,对最相关的两个搜索结果进行总结,然后回答问题。"
|
98 |
+
)
|
99 |
+
chatbot[-1] = (i_say, gpt_say)
|
100 |
+
history.append(i_say);history.append(gpt_say)
|
101 |
+
yield from update_ui(chatbot=chatbot, history=history) # 刷新界面 # 界面更新
|
102 |
+
|
main.py
CHANGED
@@ -57,7 +57,7 @@ def main():
|
|
57 |
cookies = gr.State({'api_key': API_KEY, 'llm_model': LLM_MODEL})
|
58 |
with gr_L1():
|
59 |
with gr_L2(scale=2):
|
60 |
-
chatbot = gr.Chatbot()
|
61 |
chatbot.style(height=CHATBOT_HEIGHT)
|
62 |
history = gr.State([])
|
63 |
with gr_L2(scale=1):
|
@@ -113,7 +113,7 @@ def main():
|
|
113 |
with gr.Row():
|
114 |
resetBtn2 = gr.Button("重置", variant="secondary"); resetBtn2.style(size="sm")
|
115 |
stopBtn2 = gr.Button("停止", variant="secondary"); stopBtn2.style(size="sm")
|
116 |
-
clearBtn2 = gr.Button("清除", variant="secondary", visible=False);
|
117 |
# 功能区显示开关与功能区的互动
|
118 |
def fn_area_visibility(a):
|
119 |
ret = {}
|
@@ -156,6 +156,9 @@ def main():
|
|
156 |
variant = crazy_fns[k]["Color"] if "Color" in crazy_fns[k] else "secondary"
|
157 |
return {switchy_bt: gr.update(value=k, variant=variant)}
|
158 |
dropdown.select(on_dropdown_changed, [dropdown], [switchy_bt] )
|
|
|
|
|
|
|
159 |
# 随变按钮的回调函数注册
|
160 |
def route(k, *args, **kwargs):
|
161 |
if k in [r"打开插件列表", r"请先从插件列表中选择"]: return
|
@@ -187,4 +190,4 @@ def main():
|
|
187 |
demo.queue(concurrency_count=CONCURRENT_COUNT).launch(server_name="0.0.0.0", share=False, favicon_path="docs/logo.png")
|
188 |
|
189 |
if __name__ == "__main__":
|
190 |
-
main()
|
|
|
57 |
cookies = gr.State({'api_key': API_KEY, 'llm_model': LLM_MODEL})
|
58 |
with gr_L1():
|
59 |
with gr_L2(scale=2):
|
60 |
+
chatbot = gr.Chatbot(label=f"当前模型:{LLM_MODEL}")
|
61 |
chatbot.style(height=CHATBOT_HEIGHT)
|
62 |
history = gr.State([])
|
63 |
with gr_L2(scale=1):
|
|
|
113 |
with gr.Row():
|
114 |
resetBtn2 = gr.Button("重置", variant="secondary"); resetBtn2.style(size="sm")
|
115 |
stopBtn2 = gr.Button("停止", variant="secondary"); stopBtn2.style(size="sm")
|
116 |
+
clearBtn2 = gr.Button("清除", variant="secondary", visible=False); clearBtn2.style(size="sm")
|
117 |
# 功能区显示开关与功能区的互动
|
118 |
def fn_area_visibility(a):
|
119 |
ret = {}
|
|
|
156 |
variant = crazy_fns[k]["Color"] if "Color" in crazy_fns[k] else "secondary"
|
157 |
return {switchy_bt: gr.update(value=k, variant=variant)}
|
158 |
dropdown.select(on_dropdown_changed, [dropdown], [switchy_bt] )
|
159 |
+
def on_md_dropdown_changed(k):
|
160 |
+
return {chatbot: gr.update(label="当前模型:"+k)}
|
161 |
+
md_dropdown.select(on_md_dropdown_changed, [md_dropdown], [chatbot] )
|
162 |
# 随变按钮的回调函数注册
|
163 |
def route(k, *args, **kwargs):
|
164 |
if k in [r"打开插件列表", r"请先从插件列表中选择"]: return
|
|
|
190 |
demo.queue(concurrency_count=CONCURRENT_COUNT).launch(server_name="0.0.0.0", share=False, favicon_path="docs/logo.png")
|
191 |
|
192 |
if __name__ == "__main__":
|
193 |
+
main()
|
request_llm/bridge_all.py
CHANGED
@@ -9,8 +9,9 @@
|
|
9 |
2. predict_no_ui_long_connection:在实验过程中发现调用predict_no_ui处理长文档时,和openai的连接容易断掉,这个函数用stream的方式解决这个问题,同样支持多线程
|
10 |
"""
|
11 |
import tiktoken
|
12 |
-
from functools import
|
13 |
from concurrent.futures import ThreadPoolExecutor
|
|
|
14 |
|
15 |
from .bridge_chatgpt import predict_no_ui_long_connection as chatgpt_noui
|
16 |
from .bridge_chatgpt import predict as chatgpt_ui
|
@@ -42,18 +43,37 @@ class LazyloadTiktoken(object):
|
|
42 |
def decode(self, *args, **kwargs):
|
43 |
encoder = self.get_encoder(self.model)
|
44 |
return encoder.decode(*args, **kwargs)
|
45 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
46 |
tokenizer_gpt35 = LazyloadTiktoken("gpt-3.5-turbo")
|
47 |
tokenizer_gpt4 = LazyloadTiktoken("gpt-4")
|
48 |
get_token_num_gpt35 = lambda txt: len(tokenizer_gpt35.encode(txt, disallowed_special=()))
|
49 |
get_token_num_gpt4 = lambda txt: len(tokenizer_gpt4.encode(txt, disallowed_special=()))
|
50 |
|
|
|
51 |
model_info = {
|
52 |
# openai
|
53 |
"gpt-3.5-turbo": {
|
54 |
"fn_with_ui": chatgpt_ui,
|
55 |
"fn_without_ui": chatgpt_noui,
|
56 |
-
"endpoint":
|
57 |
"max_token": 4096,
|
58 |
"tokenizer": tokenizer_gpt35,
|
59 |
"token_cnt": get_token_num_gpt35,
|
@@ -62,7 +82,7 @@ model_info = {
|
|
62 |
"gpt-4": {
|
63 |
"fn_with_ui": chatgpt_ui,
|
64 |
"fn_without_ui": chatgpt_noui,
|
65 |
-
"endpoint":
|
66 |
"max_token": 8192,
|
67 |
"tokenizer": tokenizer_gpt4,
|
68 |
"token_cnt": get_token_num_gpt4,
|
@@ -72,7 +92,7 @@ model_info = {
|
|
72 |
"api2d-gpt-3.5-turbo": {
|
73 |
"fn_with_ui": chatgpt_ui,
|
74 |
"fn_without_ui": chatgpt_noui,
|
75 |
-
"endpoint":
|
76 |
"max_token": 4096,
|
77 |
"tokenizer": tokenizer_gpt35,
|
78 |
"token_cnt": get_token_num_gpt35,
|
@@ -81,7 +101,7 @@ model_info = {
|
|
81 |
"api2d-gpt-4": {
|
82 |
"fn_with_ui": chatgpt_ui,
|
83 |
"fn_without_ui": chatgpt_noui,
|
84 |
-
"endpoint":
|
85 |
"max_token": 8192,
|
86 |
"tokenizer": tokenizer_gpt4,
|
87 |
"token_cnt": get_token_num_gpt4,
|
|
|
9 |
2. predict_no_ui_long_connection:在实验过程中发现调用predict_no_ui处理长文档时,和openai的连接容易断掉,这个函数用stream的方式解决这个问题,同样支持多线程
|
10 |
"""
|
11 |
import tiktoken
|
12 |
+
from functools import lru_cache
|
13 |
from concurrent.futures import ThreadPoolExecutor
|
14 |
+
from toolbox import get_conf
|
15 |
|
16 |
from .bridge_chatgpt import predict_no_ui_long_connection as chatgpt_noui
|
17 |
from .bridge_chatgpt import predict as chatgpt_ui
|
|
|
43 |
def decode(self, *args, **kwargs):
|
44 |
encoder = self.get_encoder(self.model)
|
45 |
return encoder.decode(*args, **kwargs)
|
46 |
+
|
47 |
+
# Endpoint 重定向
|
48 |
+
API_URL_REDIRECT, = get_conf("API_URL_REDIRECT")
|
49 |
+
openai_endpoint = "https://api.openai.com/v1/chat/completions"
|
50 |
+
api2d_endpoint = "https://openai.api2d.net/v1/chat/completions"
|
51 |
+
# 兼容旧版的配置
|
52 |
+
try:
|
53 |
+
API_URL, = get_conf("API_URL")
|
54 |
+
if API_URL != "https://api.openai.com/v1/chat/completions":
|
55 |
+
openai_endpoint = API_URL
|
56 |
+
print("警告!API_URL配置选项将被弃用,请更换为API_URL_REDIRECT配置")
|
57 |
+
except:
|
58 |
+
pass
|
59 |
+
# 新版配置
|
60 |
+
if openai_endpoint in API_URL_REDIRECT: openai_endpoint = API_URL_REDIRECT[openai_endpoint]
|
61 |
+
if api2d_endpoint in API_URL_REDIRECT: api2d_endpoint = API_URL_REDIRECT[api2d_endpoint]
|
62 |
+
|
63 |
+
|
64 |
+
# 获取tokenizer
|
65 |
tokenizer_gpt35 = LazyloadTiktoken("gpt-3.5-turbo")
|
66 |
tokenizer_gpt4 = LazyloadTiktoken("gpt-4")
|
67 |
get_token_num_gpt35 = lambda txt: len(tokenizer_gpt35.encode(txt, disallowed_special=()))
|
68 |
get_token_num_gpt4 = lambda txt: len(tokenizer_gpt4.encode(txt, disallowed_special=()))
|
69 |
|
70 |
+
|
71 |
model_info = {
|
72 |
# openai
|
73 |
"gpt-3.5-turbo": {
|
74 |
"fn_with_ui": chatgpt_ui,
|
75 |
"fn_without_ui": chatgpt_noui,
|
76 |
+
"endpoint": openai_endpoint,
|
77 |
"max_token": 4096,
|
78 |
"tokenizer": tokenizer_gpt35,
|
79 |
"token_cnt": get_token_num_gpt35,
|
|
|
82 |
"gpt-4": {
|
83 |
"fn_with_ui": chatgpt_ui,
|
84 |
"fn_without_ui": chatgpt_noui,
|
85 |
+
"endpoint": openai_endpoint,
|
86 |
"max_token": 8192,
|
87 |
"tokenizer": tokenizer_gpt4,
|
88 |
"token_cnt": get_token_num_gpt4,
|
|
|
92 |
"api2d-gpt-3.5-turbo": {
|
93 |
"fn_with_ui": chatgpt_ui,
|
94 |
"fn_without_ui": chatgpt_noui,
|
95 |
+
"endpoint": api2d_endpoint,
|
96 |
"max_token": 4096,
|
97 |
"tokenizer": tokenizer_gpt35,
|
98 |
"token_cnt": get_token_num_gpt35,
|
|
|
101 |
"api2d-gpt-4": {
|
102 |
"fn_with_ui": chatgpt_ui,
|
103 |
"fn_without_ui": chatgpt_noui,
|
104 |
+
"endpoint": api2d_endpoint,
|
105 |
"max_token": 8192,
|
106 |
"tokenizer": tokenizer_gpt4,
|
107 |
"token_cnt": get_token_num_gpt4,
|
request_llm/bridge_chatgpt.py
CHANGED
@@ -21,7 +21,7 @@ import importlib
|
|
21 |
|
22 |
# config_private.py放自己的秘密如API和代理网址
|
23 |
# 读取时首先看是否存在私密的config_private配置文件(不受git管控),如果有,则覆盖原config文件
|
24 |
-
from toolbox import get_conf, update_ui, is_any_api_key, select_api_key
|
25 |
proxies, API_KEY, TIMEOUT_SECONDS, MAX_RETRY = \
|
26 |
get_conf('proxies', 'API_KEY', 'TIMEOUT_SECONDS', 'MAX_RETRY')
|
27 |
|
@@ -118,7 +118,7 @@ def predict(inputs, llm_kwargs, plugin_kwargs, chatbot, history=[], system_promp
|
|
118 |
"""
|
119 |
if is_any_api_key(inputs):
|
120 |
chatbot._cookies['api_key'] = inputs
|
121 |
-
chatbot.append(("输入已识别为openai的api_key",
|
122 |
yield from update_ui(chatbot=chatbot, history=history, msg="api_key已导入") # 刷新界面
|
123 |
return
|
124 |
elif not is_any_api_key(chatbot._cookies['api_key']):
|
@@ -141,7 +141,7 @@ def predict(inputs, llm_kwargs, plugin_kwargs, chatbot, history=[], system_promp
|
|
141 |
try:
|
142 |
headers, payload = generate_payload(inputs, llm_kwargs, history, system_prompt, stream)
|
143 |
except RuntimeError as e:
|
144 |
-
chatbot[-1] = (inputs, f"您提供的api-key不满足要求,不包含任何可用于{llm_kwargs['llm_model']}的api-key
|
145 |
yield from update_ui(chatbot=chatbot, history=history, msg="api-key不满足要求") # 刷新界面
|
146 |
return
|
147 |
|
@@ -208,6 +208,8 @@ def predict(inputs, llm_kwargs, plugin_kwargs, chatbot, history=[], system_promp
|
|
208 |
chatbot[-1] = (chatbot[-1][0], "[Local Message] You exceeded your current quota. OpenAI以账户额度不足为由,拒绝服务.")
|
209 |
elif "bad forward key" in error_msg:
|
210 |
chatbot[-1] = (chatbot[-1][0], "[Local Message] Bad forward key. API2D账户额度不足.")
|
|
|
|
|
211 |
else:
|
212 |
from toolbox import regular_txt_to_markdown
|
213 |
tb_str = '```\n' + traceback.format_exc() + '```'
|
|
|
21 |
|
22 |
# config_private.py放自己的秘密如API和代理网址
|
23 |
# 读取时首先看是否存在私密的config_private配置文件(不受git管控),如果有,则覆盖原config文件
|
24 |
+
from toolbox import get_conf, update_ui, is_any_api_key, select_api_key, what_keys
|
25 |
proxies, API_KEY, TIMEOUT_SECONDS, MAX_RETRY = \
|
26 |
get_conf('proxies', 'API_KEY', 'TIMEOUT_SECONDS', 'MAX_RETRY')
|
27 |
|
|
|
118 |
"""
|
119 |
if is_any_api_key(inputs):
|
120 |
chatbot._cookies['api_key'] = inputs
|
121 |
+
chatbot.append(("输入已识别为openai的api_key", what_keys(inputs)))
|
122 |
yield from update_ui(chatbot=chatbot, history=history, msg="api_key已导入") # 刷新界面
|
123 |
return
|
124 |
elif not is_any_api_key(chatbot._cookies['api_key']):
|
|
|
141 |
try:
|
142 |
headers, payload = generate_payload(inputs, llm_kwargs, history, system_prompt, stream)
|
143 |
except RuntimeError as e:
|
144 |
+
chatbot[-1] = (inputs, f"您提供的api-key不满足要求,不包含任何可用于{llm_kwargs['llm_model']}的api-key。您可能选择了错误的模型或请求源。")
|
145 |
yield from update_ui(chatbot=chatbot, history=history, msg="api-key不满足要求") # 刷新界面
|
146 |
return
|
147 |
|
|
|
208 |
chatbot[-1] = (chatbot[-1][0], "[Local Message] You exceeded your current quota. OpenAI以账户额度不足为由,拒绝服务.")
|
209 |
elif "bad forward key" in error_msg:
|
210 |
chatbot[-1] = (chatbot[-1][0], "[Local Message] Bad forward key. API2D账户额度不足.")
|
211 |
+
elif "Not enough point" in error_msg:
|
212 |
+
chatbot[-1] = (chatbot[-1][0], "[Local Message] Not enough point. API2D账户点数不足.")
|
213 |
else:
|
214 |
from toolbox import regular_txt_to_markdown
|
215 |
tb_str = '```\n' + traceback.format_exc() + '```'
|
toolbox.py
CHANGED
@@ -432,6 +432,19 @@ def is_any_api_key(key):
|
|
432 |
else:
|
433 |
return is_openai_api_key(key) or is_api2d_key(key)
|
434 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
435 |
|
436 |
def select_api_key(keys, llm_model):
|
437 |
import random
|
@@ -447,20 +460,22 @@ def select_api_key(keys, llm_model):
|
|
447 |
if is_api2d_key(k): avail_key_list.append(k)
|
448 |
|
449 |
if len(avail_key_list) == 0:
|
450 |
-
raise RuntimeError(f"您提供的api-key不满足要求,不包含任何可用于{llm_model}的api-key
|
451 |
|
452 |
api_key = random.choice(avail_key_list) # 随机负载均衡
|
453 |
return api_key
|
454 |
|
455 |
@lru_cache(maxsize=128)
|
456 |
def read_single_conf_with_lru_cache(arg):
|
457 |
-
from colorful import print亮红, print
|
458 |
try:
|
459 |
r = getattr(importlib.import_module('config_private'), arg)
|
460 |
except:
|
461 |
r = getattr(importlib.import_module('config'), arg)
|
462 |
# 在读取API_KEY时,检查一下是不是忘了改config
|
463 |
if arg == 'API_KEY':
|
|
|
|
|
464 |
if is_any_api_key(r):
|
465 |
print亮绿(f"[API_KEY] 您的 API_KEY 是: {r[:15]}*** API_KEY 导入成功")
|
466 |
else:
|
|
|
432 |
else:
|
433 |
return is_openai_api_key(key) or is_api2d_key(key)
|
434 |
|
435 |
+
def what_keys(keys):
|
436 |
+
avail_key_list = {'OpenAI Key':0, "API2D Key":0}
|
437 |
+
key_list = keys.split(',')
|
438 |
+
|
439 |
+
for k in key_list:
|
440 |
+
if is_openai_api_key(k):
|
441 |
+
avail_key_list['OpenAI Key'] += 1
|
442 |
+
|
443 |
+
for k in key_list:
|
444 |
+
if is_api2d_key(k):
|
445 |
+
avail_key_list['API2D Key'] += 1
|
446 |
+
|
447 |
+
return f"检测到: OpenAI Key {avail_key_list['OpenAI Key']} 个,API2D Key {avail_key_list['API2D Key']} 个"
|
448 |
|
449 |
def select_api_key(keys, llm_model):
|
450 |
import random
|
|
|
460 |
if is_api2d_key(k): avail_key_list.append(k)
|
461 |
|
462 |
if len(avail_key_list) == 0:
|
463 |
+
raise RuntimeError(f"您提供的api-key不满足要求,不包含任何可用于{llm_model}的api-key。您可能选择了错误的模型或请求源。")
|
464 |
|
465 |
api_key = random.choice(avail_key_list) # 随机负载均衡
|
466 |
return api_key
|
467 |
|
468 |
@lru_cache(maxsize=128)
|
469 |
def read_single_conf_with_lru_cache(arg):
|
470 |
+
from colorful import print亮红, print亮绿, print亮蓝
|
471 |
try:
|
472 |
r = getattr(importlib.import_module('config_private'), arg)
|
473 |
except:
|
474 |
r = getattr(importlib.import_module('config'), arg)
|
475 |
# 在读取API_KEY时,检查一下是不是忘了改config
|
476 |
if arg == 'API_KEY':
|
477 |
+
print亮蓝(f"[API_KEY] 本项目现已支持OpenAI和API2D的api-key。也支持同时填写多个api-key,如API_KEY=\"openai-key1,openai-key2,api2d-key3\"")
|
478 |
+
print亮蓝(f"[API_KEY] 您既可以在config.py中修改api-key(s),也可以在问题输入区输入临时的api-key(s),然后回车键提交后即可生效。")
|
479 |
if is_any_api_key(r):
|
480 |
print亮绿(f"[API_KEY] 您的 API_KEY 是: {r[:15]}*** API_KEY 导入成功")
|
481 |
else:
|