fix ON_COLAB
Browse files
app.py
CHANGED
@@ -7,18 +7,18 @@ from huggingface_hub import hf_hub_download
|
|
7 |
# nvmlInit()
|
8 |
# gpu_h = nvmlDeviceGetHandleByIndex(0)
|
9 |
ctx_limit = 4096
|
10 |
-
desc = f'''链接:<a href='https://github.com/BlinkDL/ChatRWKV' target="_blank" style="margin:0 0.5em">ChatRWKV</a><a href='https://github.com/BlinkDL/RWKV-LM' target="_blank" style="margin:0 0.5em">RWKV-LM</a><a href="https://pypi.org/project/rwkv/" target="_blank" style="margin:0 0.5em">RWKV pip package</a><a href="https://zhuanlan.zhihu.com/p/618011122" target="_blank" style="margin:0 0.5em">知乎教程</a>
|
11 |
'''
|
12 |
|
13 |
parser = argparse.ArgumentParser(prog = 'ChatGal RWKV')
|
14 |
parser.add_argument('--share',action='store_true')
|
15 |
args = parser.parse_args()
|
16 |
-
|
17 |
os.environ["RWKV_JIT_ON"] = '1'
|
18 |
|
19 |
from rwkv.model import RWKV
|
20 |
model_path = hf_hub_download(repo_id="Synthia/ChatGalRWKV", filename="rwkv-chatgal-v1-3B-ctx4096-epoch2.pth")
|
21 |
-
if os.environ['ON_COLAB'] == '1':
|
|
|
22 |
os.environ["RWKV_CUDA_ON"] = '1' # if '1' then use CUDA kernel for seq mode (much faster)
|
23 |
model = RWKV(model=model_path, strategy='cuda bf16')
|
24 |
else:
|
@@ -88,8 +88,8 @@ examples = [
|
|
88 |
|
89 |
女招待: 是吗。那真是太好了
|
90 |
|
91 |
-
我因为撰稿的需要,而造访了这间位于信州山间的温泉宿驿。""", 200, 0.7, 1.0, 0.
|
92 |
-
["翡翠: 欢迎回来,志贵少爷。", 200, 0.7, 1.0, 0.
|
93 |
["""莲华: 你的目的,就是这个万华镜吧?
|
94 |
|
95 |
莲华拿出了万华镜。
|
@@ -105,7 +105,7 @@ examples = [
|
|
105 |
|
106 |
深见: 请让我好好看看……
|
107 |
|
108 |
-
我刚想把手伸过去,莲华就一下子把它收了回去。""", 200, 0.7, 1.0, 0.
|
109 |
["""嘉祥: 偶尔来一次也不错。
|
110 |
|
111 |
我坐到客厅的沙发上,拍了拍自己的大腿。
|
@@ -122,20 +122,20 @@ examples = [
|
|
122 |
|
123 |
我摸摸各自占据住我左右两腿的两颗猫头。
|
124 |
|
125 |
-
嘉祥: 开心归开心,拜托你们俩别一直乱动啊,很危险的。""", 200, 0.7, 1.0, 0.
|
126 |
]
|
127 |
|
128 |
iface = gr.Interface(
|
129 |
fn=infer,
|
130 |
-
description=f'''
|
131 |
allow_flagging="never",
|
132 |
inputs=[
|
133 |
gr.Textbox(lines=10, label="Prompt 输入的前文", value="通过基因改造,修真"), # prompt
|
134 |
gr.Slider(10, 200, step=10, value=200, label="token_count 每次生成的长度"), # token_count
|
135 |
gr.Slider(0.2, 2.0, step=0.1, value=0.7, label="temperature 默认0.7,高则变化丰富,低则保守求稳"), # temperature
|
136 |
gr.Slider(0.0, 1.0, step=0.05, value=1.0, label="top_p 默认1.0,高则标新立异,低则循规蹈矩"), # top_p
|
137 |
-
gr.Slider(0.0, 1.0, step=0.1, value=0.
|
138 |
-
gr.Slider(0.0, 1.0, step=0.1, value=0.
|
139 |
],
|
140 |
outputs=gr.Textbox(label="Output 输出的续写", lines=28),
|
141 |
examples=examples,
|
|
|
7 |
# nvmlInit()
|
8 |
# gpu_h = nvmlDeviceGetHandleByIndex(0)
|
9 |
ctx_limit = 4096
|
10 |
+
desc = f'''链接:<a href='https://colab.research.google.com/drive/1J1gLMMMA8GbD9JuQt6OKmwCTl9mWU0bb?usp=sharing'>太慢了?用Colab自己部署吧</a> <br /> <a href='https://github.com/BlinkDL/ChatRWKV' target="_blank" style="margin:0 0.5em">ChatRWKV</a><a href='https://github.com/BlinkDL/RWKV-LM' target="_blank" style="margin:0 0.5em">RWKV-LM</a><a href="https://pypi.org/project/rwkv/" target="_blank" style="margin:0 0.5em">RWKV pip package</a><a href="https://zhuanlan.zhihu.com/p/618011122" target="_blank" style="margin:0 0.5em">知乎教程</a>
|
11 |
'''
|
12 |
|
13 |
parser = argparse.ArgumentParser(prog = 'ChatGal RWKV')
|
14 |
parser.add_argument('--share',action='store_true')
|
15 |
args = parser.parse_args()
|
|
|
16 |
os.environ["RWKV_JIT_ON"] = '1'
|
17 |
|
18 |
from rwkv.model import RWKV
|
19 |
model_path = hf_hub_download(repo_id="Synthia/ChatGalRWKV", filename="rwkv-chatgal-v1-3B-ctx4096-epoch2.pth")
|
20 |
+
if 'ON_COLAB' in os.environ and os.environ['ON_COLAB'] == '1':
|
21 |
+
os.environ["RWKV_JIT_ON"] = '0'
|
22 |
os.environ["RWKV_CUDA_ON"] = '1' # if '1' then use CUDA kernel for seq mode (much faster)
|
23 |
model = RWKV(model=model_path, strategy='cuda bf16')
|
24 |
else:
|
|
|
88 |
|
89 |
女招待: 是吗。那真是太好了
|
90 |
|
91 |
+
我因为撰稿的需要,而造访了这间位于信州山间的温泉宿驿。""", 200, 0.7, 1.0, 0.0, 0.0],
|
92 |
+
["翡翠: 欢迎回来,志贵少爷。", 200, 0.7, 1.0, 0.0, 0.0],
|
93 |
["""莲华: 你的目的,就是这个万华镜吧?
|
94 |
|
95 |
莲华拿出了万华镜。
|
|
|
105 |
|
106 |
深见: 请让我好好看看……
|
107 |
|
108 |
+
我刚想把手伸过去,莲华就一下子把它收了回去。""", 200, 0.7, 1.0, 0.00, 0.0],
|
109 |
["""嘉祥: 偶尔来一次也不错。
|
110 |
|
111 |
我坐到客厅的沙发上,拍了拍自己的大腿。
|
|
|
122 |
|
123 |
我摸摸各自占据住我左右两腿的两颗猫头。
|
124 |
|
125 |
+
嘉祥: 开心归开心,拜托你们俩别一直乱动啊,很危险的。""", 200, 0.7, 1.0, 0.0, 0.0],
|
126 |
]
|
127 |
|
128 |
iface = gr.Interface(
|
129 |
fn=infer,
|
130 |
+
description=f'''这是GalGame剧本续写模型(实验性质,不保证效果)。<b>请点击例子(在页面底部)</b>,可编辑内容。这里只看输入的最后约1200字,请写好,标点规范,无错别字,否则电脑会模仿你的错误。<b>为避免占用资源,每次生成限制长度。可将输出内容复制到输入,然后继续生成</b>。推荐提高temp改善文采,降低topp改善逻辑,提高两个penalty避免重复,具体幅度请自己实验。{desc}''',
|
131 |
allow_flagging="never",
|
132 |
inputs=[
|
133 |
gr.Textbox(lines=10, label="Prompt 输入的前文", value="通过基因改造,修真"), # prompt
|
134 |
gr.Slider(10, 200, step=10, value=200, label="token_count 每次生成的长度"), # token_count
|
135 |
gr.Slider(0.2, 2.0, step=0.1, value=0.7, label="temperature 默认0.7,高则变化丰富,低则保守求稳"), # temperature
|
136 |
gr.Slider(0.0, 1.0, step=0.05, value=1.0, label="top_p 默认1.0,高则标新立异,低则循规蹈矩"), # top_p
|
137 |
+
gr.Slider(0.0, 1.0, step=0.1, value=0.0, label="presencePenalty 默认0.0,避免写过的类似字"), # presencePenalty
|
138 |
+
gr.Slider(0.0, 1.0, step=0.1, value=0.0, label="countPenalty 默认0.0,额外避免写过多次的类似字"), # countPenalty
|
139 |
],
|
140 |
outputs=gr.Textbox(label="Output 输出的续写", lines=28),
|
141 |
examples=examples,
|