Update README.md
Browse files
README.md
CHANGED
@@ -19,6 +19,8 @@ pipeline_tag: text-generation
|
|
19 |
🦉 <a href="https://github.com/pipixia244/Sakura-13B-Galgame" target="_blank">GitHub</a> | 🤖 <a href="https://www.modelscope.cn/models/sakuraumi/Sakura-13B-Galgame" target="_blank">ModelScope</a>
|
20 |
</p>
|
21 |
|
|
|
|
|
22 |
# 介绍
|
23 |
|
24 |
- 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型。
|
@@ -32,10 +34,11 @@ pipeline_tag: text-generation
|
|
32 |
**对于其他适配本模型的项目如使用非本项目提供的prompt格式进行翻译,不保证会获得与README中的说明一致的质量!**
|
33 |
|
34 |
**如果使用模型翻译并发布,请在最显眼的位置标注机翻!!!!!开发者对于滥用本模型造成的一切后果不负任何责任。**
|
|
|
35 |
|
36 |
**对于模型翻译的人称代词问题(错用,乱加,主宾混淆,男女不分等)和上下文理解问题,如果有好的想法或建议,欢迎提issue!**
|
37 |
|
38 |
-
###
|
39 |
|
40 |
## 快速开始
|
41 |
|
@@ -45,18 +48,27 @@ pipeline_tag: text-generation
|
|
45 |
|
46 |
### 模型下载:
|
47 |
|
48 |
-
|
|
49 |
-
|
50 |
-
|
|
51 |
-
|
|
|
|
|
|
|
|
|
|
|
|
52 |
|
53 |
p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.co`改成`hf-mirror.com`,使用hf镜像站下载。
|
54 |
|
55 |
## News
|
56 |
|
57 |
-
1.
|
|
|
|
|
|
|
|
|
58 |
|
59 |
-
1. **更新了0.9的正式版模型`v0.9b
|
60 |
|
61 |
1. **增加了vllm模型后端的支持,详见**[#40](https://github.com/SakuraLLM/Sakura-13B-Galgame/pull/40)
|
62 |
|
@@ -72,7 +84,7 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
|
|
72 |
轻小说机翻机器人网站是一个自动生成轻小说机翻并分享的网站。你可以浏览日文网络小说,或者上传Epub/Txt文件,并生成机翻。
|
73 |
|
74 |
1. [LunaTranslator](https://github.com/HIllya51/LunaTranslator)已经支持Sakura API,可以通过本地部署API后端,并在LunaTranslator中配置Sakura API来使用Sakura模型进行Galgame实时翻译。
|
75 |
-
|
76 |
|
77 |
LunaTranslator是一个Galgame翻译工具,支持剪贴板、OCR、HOOK,支持40余种翻译引擎。
|
78 |
|
@@ -86,13 +98,17 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
|
|
86 |
|
87 |
1. [AiNiee](https://github.com/NEKOparapa/AiNiee-chatgpt)已经支持Sakura API,可以通过本地部署API后端,在AiNiee中使用Sakura模型进行翻译。
|
88 |
|
89 |
-
|
|
|
|
|
|
|
|
|
90 |
|
91 |
# 显存需求
|
92 |
|
93 |
下面的表格显示了使用不同量化和不同格式的模型时显存占用的大小。如果你的显卡显存不满足上述需求,可以尝试同时使用CPU与GPU进行推理。
|
94 |
|
95 |
-
- llama.cpp GGUF模型(使用v0.9
|
96 |
|
97 |
| 模型量化类型 | 模型大小 | 推荐显存大小 |
|
98 |
|:-------:|:-------:|:-------:|
|
@@ -104,23 +120,15 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
|
|
104 |
| Q3_K_M | 7.2G | 16G |
|
105 |
| Q2_K | 6.1G | 12G |
|
106 |
|
107 |
-
- transformers autogptq模型(使用v0.8版本进行测试)
|
108 |
-
|
109 |
-
| 模型量化类型 | 推理显存(ctx约600) | 推理显存(ctx约1800) |
|
110 |
-
|:-------:|:-------:|:-------:|
|
111 |
-
| 全量 | 超出游戏显卡显存范围 | 超出游戏显卡显存范围 |
|
112 |
-
| 8bit | 21.1G | 23.4G |
|
113 |
-
| 4bit | 14.9G | 17.4G |
|
114 |
-
| 3bit | 13.7G | 15.5G |
|
115 |
-
|
116 |
# 模型详情
|
117 |
|
118 |
## 描述
|
119 |
|
120 |
- Finetuned by [SakuraUmi](https://github.com/pipixia244)
|
121 |
- Finetuned on [Baichuan2-13B-Chat](https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat)
|
122 |
-
-
|
123 |
-
-
|
|
|
124 |
- Languages: Chinese/Japanese
|
125 |
|
126 |
## 效果
|
@@ -131,7 +139,7 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
|
|
131 |
|
132 |
- 轻小说
|
133 |
|
134 |
-
网站:[轻小说机翻机器人](https://books.fishhawk.top/)已接入Sakura模型(v0.
|
135 |
|
136 |
- PPL/BLEU/Human
|
137 |
|
@@ -159,6 +167,33 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
|
|
159 |
```
|
160 |
- prompt格式:
|
161 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
162 |
- v0.9
|
163 |
文本格式如下:
|
164 |
```
|
@@ -212,7 +247,7 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
|
|
212 |
| max new token | 512 |
|
213 |
| min new token | 1 |
|
214 |
|
215 |
-
|
216 |
|
217 |
# 微调
|
218 |
|
@@ -252,6 +287,6 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
|
|
252 |
|
253 |
# Copyright Notice
|
254 |
|
255 |
-
v0.8版本模型的使用须遵守[Apache 2.0](https://github.com/baichuan-inc/Baichuan2/blob/main/LICENSE)
|
256 |
|
257 |
-
v0.9版本模型的使用须遵守[Qwen模型许可协议](https://github.com/QwenLM/Qwen/blob/main/Tongyi%20Qianwen%20LICENSE%20AGREEMENT)。
|
|
|
19 |
🦉 <a href="https://github.com/pipixia244/Sakura-13B-Galgame" target="_blank">GitHub</a> | 🤖 <a href="https://www.modelscope.cn/models/sakuraumi/Sakura-13B-Galgame" target="_blank">ModelScope</a>
|
20 |
</p>
|
21 |
|
22 |
+
# 目前Sakura发布的所有模型均采用[CC BY-NC-SA 4.0协议](https://creativecommons.org/licenses/by-nc-sa/4.0/deed.zh-hans),Sakura所有模型与其衍生模型均禁止任何形式的商用!Sakura系列所有模型皆仅供学习交流使用,开发者对使用Sakura模型造成的问题不负任何责任。
|
23 |
+
|
24 |
# 介绍
|
25 |
|
26 |
- 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型。
|
|
|
34 |
**对于其他适配本模型的项目如使用非本项目提供的prompt格式进行翻译,不保证会获得与README中的说明一致的质量!**
|
35 |
|
36 |
**如果使用模型翻译并发布,请在最显眼的位置标注机翻!!!!!开发者对于滥用本模型造成的一切后果不负任何责任。**
|
37 |
+
> 由于模型一直在更新,请同时注明使用的模型版本等信息,方便进行质量评估和更新翻译。
|
38 |
|
39 |
**对于模型翻译的人称代词问题(错用,乱加,主宾混淆,男女不分等)和上下文理解问题,如果有好的想法或建议,欢迎提issue!**
|
40 |
|
41 |
+
### TODO:见https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/42
|
42 |
|
43 |
## 快速开始
|
44 |
|
|
|
48 |
|
49 |
### 模型下载:
|
50 |
|
51 |
+
| 参数量 | 发布时间-底模-版本 | Transformers模型 | GGUF量化模型 |
|
52 |
+
|:-------:|:-------:|:-------:|:-------:|
|
53 |
+
| 32B | 20240508-Qwen1.5-32B-v0.9 | - | 🤗 [Sakura-32B-Qwen2beta-v0.9](https://huggingface.co/SakuraLLM/Sakura-32B-Qwen2beta-v0.9-GGUF) |
|
54 |
+
| | 20240508-Qwen1.5-32B-v0.10pre1 | - | - |
|
55 |
+
| 14B | 20240111-Qwen-14B-v0.9 | 🤗 [Sakura-13B-LNovel-v0.9](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9) | 🤗 [Sakura-13B-LNovel-v0.9b-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9b-GGUF) |
|
56 |
+
| | 20240213-Qwen1.5-14B-v0.9 | 🤗 [Sakura-14B-Qwen2beta-v0.9](https://huggingface.co/SakuraLLM/Sakura-14B-Qwen2beta-v0.9) | 🤗 [Sakura-14B-Qwen2beta-v0.9-GGUF](https://huggingface.co/SakuraLLM/Sakura-14B-Qwen2beta-v0.9-GGUF) |
|
57 |
+
| 7B | 20240116-Qwen-7B-v0.9 | - | 🤗 [Sakura-7B-LNovel-v0.9-GGUF](https://huggingface.co/SakuraLLM/Sakura-7B-LNovel-v0.9-GGUF) |
|
58 |
+
| 1.8B| 20240214-Qwen1.5-1.8B-v0.9.1 | 🤗 [Sakura-1B8-Qwen2beta-v0.9.1](https://huggingface.co/SakuraLLM/Sakura-1B8-Qwen2beta-v0.9.1) | 🤗 [Sakura-1B8-Qwen2beta-v0.9.1](https://huggingface.co/SakuraLLM/Sakura-1B8-Qwen2beta-v0.9.1-GGUF) |
|
59 |
+
|
60 |
|
61 |
p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.co`改成`hf-mirror.com`,使用hf镜像站下载。
|
62 |
|
63 |
## News
|
64 |
|
65 |
+
1. **更新了基于Qwen1.5-32B底模的v0.9与v0.10pre1版本的GGUF模型。其中v0.10pre1版本为v0.10的预览版,具备术语表功能,相比上一版本优化翻译质量,同时使用新的prompt格式,详见[推理部分](https://github.com/SakuraLLM/Sakura-13B-Galgame?tab=readme-ov-file#%E6%8E%A8%E7%90%86)的prompt格式部分。**
|
66 |
+
|
67 |
+
1. **更新了使用Importance Matrix进行量化的Sakura-14B-Qwen2beta-v0.9-GGUF模型。[模型地址](https://huggingface.co/SakuraLLM/Sakura-14B-Qwen2beta-v0.9-GGUF/blob/main/sakura-14b-qwen2beta-v0.9-iq4_xs_ver2.gguf)**
|
68 |
+
|
69 |
+
1. **更新了基于Qwen1.5底模的`v0.9`版本模型,包括14B和1.8B两个版本。注意:此版本模型的结构为Qwen2. 同时补充更新了基于Qwen 7B的`v0.9`版本模型。**
|
70 |
|
71 |
+
1. **更新了0.9的正式版模型`v0.9b`。清洗并增加了预训练与微调的数据量。更推荐使用正式版模型,它会比之前的pre版本更加稳定,质量更高。**
|
72 |
|
73 |
1. **增加了vllm模型后端的支持,详见**[#40](https://github.com/SakuraLLM/Sakura-13B-Galgame/pull/40)
|
74 |
|
|
|
84 |
轻小说机翻机器人网站是一个自动生成轻小说机翻并分享的网站。你可以浏览日文网络小说,或者上传Epub/Txt文件,并生成机翻。
|
85 |
|
86 |
1. [LunaTranslator](https://github.com/HIllya51/LunaTranslator)已经支持Sakura API,可以通过本地部署API后端,并在LunaTranslator中配置Sakura API来使用Sakura模型进行Galgame实时翻译。
|
87 |
+
~~使用[KurikoMoe](https://github.com/kurikomoe/LunaTranslator/releases/latest)的版本可以支持流式输出。~~ 目前官方版本已经支持流式输出,只需在翻译设置界面勾选流式输出即可。
|
88 |
|
89 |
LunaTranslator是一个Galgame翻译工具,支持剪贴板、OCR、HOOK,支持40余种翻译引擎。
|
90 |
|
|
|
98 |
|
99 |
1. [AiNiee](https://github.com/NEKOparapa/AiNiee-chatgpt)已经支持Sakura API,可以通过本地部署API后端,在AiNiee中使用Sakura模型进行翻译。
|
100 |
|
101 |
+
AiNiee是一款基于【mtool】或【Translator++】,chatgpt自动批量翻译工具,主要是用来翻译各种RPG游戏。
|
102 |
+
|
103 |
+
1. [manga-image-translator](https://github.com/zyddnys/manga-image-translator)已经支持Sakura API,可以通过本地部署API后端,使用Sakura自动翻译漫画。
|
104 |
+
|
105 |
+
1. [BallonsTranslator](https://github.com/dmMaze/BallonsTranslator)已经支持Sakura API,可以通过本地部署API后端,使用Sakura翻译漫画。
|
106 |
|
107 |
# 显存需求
|
108 |
|
109 |
下面的表格显示了使用不同量化和不同格式的模型时显存占用的大小。如果你的显卡显存不满足上述需求,可以尝试同时使用CPU与GPU进行推理。
|
110 |
|
111 |
+
- llama.cpp GGUF模型(使用Qwen-14B v0.9模型进行测试)
|
112 |
|
113 |
| 模型量化类型 | 模型大小 | 推荐显存大小 |
|
114 |
|:-------:|:-------:|:-------:|
|
|
|
120 |
| Q3_K_M | 7.2G | 16G |
|
121 |
| Q2_K | 6.1G | 12G |
|
122 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
123 |
# 模型详情
|
124 |
|
125 |
## 描述
|
126 |
|
127 |
- Finetuned by [SakuraUmi](https://github.com/pipixia244)
|
128 |
- Finetuned on [Baichuan2-13B-Chat](https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat)
|
129 |
+
- Continual Pre-trained on [Qwen model series](https://github.com/QwenLM/Qwen)
|
130 |
+
- Continual Pre-trained on [Qwen1.5 model series](https://github.com/QwenLM/Qwen1.5)
|
131 |
+
- Finetuned on Sakura-Base model series
|
132 |
- Languages: Chinese/Japanese
|
133 |
|
134 |
## 效果
|
|
|
139 |
|
140 |
- 轻小说
|
141 |
|
142 |
+
网站:[轻小说机翻机器人](https://books.fishhawk.top/)已接入Sakura模型(v0.9),站内有大量模型翻译的轻小说可供参考。
|
143 |
|
144 |
- PPL/BLEU/Human
|
145 |
|
|
|
167 |
```
|
168 |
- prompt格式:
|
169 |
|
170 |
+
- v0.10pre1
|
171 |
+
代码处理如下:
|
172 |
+
```python
|
173 |
+
gpt_dict = [{
|
174 |
+
"src": "原文1",
|
175 |
+
"dst": "译文1",
|
176 |
+
"info": "注释信息1",
|
177 |
+
},]
|
178 |
+
gpt_dict_text_list = []
|
179 |
+
for gpt in gpt_dict:
|
180 |
+
src = gpt['src']
|
181 |
+
dst = gpt['dst']
|
182 |
+
info = gpt['info'] if "info" in gpt.keys() else None
|
183 |
+
if info:
|
184 |
+
single = f"{src}->{dst} #{info}"
|
185 |
+
else:
|
186 |
+
single = f"{src}->{dst}"
|
187 |
+
gpt_dict_text_list.append(single)
|
188 |
+
|
189 |
+
gpt_dict_raw_text = "\n".join(gpt_dict_text_list)
|
190 |
+
|
191 |
+
user_prompt = "根据以下术语表(可以为空):\n" + gpt_dict_raw_text + "\n\n" + "将下面的日文文本根据上述术语表的对应关系和备注翻译成中文:" + japanese
|
192 |
+
prompt = "<|im_start|>system\n你是一个轻小说翻译模型,可以流畅通顺地使用给定的术语表以日本轻小说的风格将日文翻译成简体中文,并联系上下文正确使用人称代词,注意不要混淆使役态和被动态的主语和宾语,不要擅自添加原文中没有的代词,也不要擅自增加或减少换行。<|im_end|>\n" \ # system prompt
|
193 |
+
+ "<|im_start|>user\n" + user_prompt + "<|im_end|>\n" \ # user prompt
|
194 |
+
+ "<|im_start|>assistant\n" # assistant prompt start
|
195 |
+
```
|
196 |
+
|
197 |
- v0.9
|
198 |
文本格式如下:
|
199 |
```
|
|
|
247 |
| max new token | 512 |
|
248 |
| min new token | 1 |
|
249 |
|
250 |
+
**如出现退化(退化的例子可参见[#35](https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/35)与[#36](https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/36)),可增加`frequency_penalty`参数,并设置为大于0的某值,一般设置0.1~0.2即可。**
|
251 |
|
252 |
# 微调
|
253 |
|
|
|
287 |
|
288 |
# Copyright Notice
|
289 |
|
290 |
+
v0.8版本模型的使用须遵守[Apache 2.0](https://github.com/baichuan-inc/Baichuan2/blob/main/LICENSE)、[《Baichuan 2 模型社区许可协议》](https://huggingface.co/baichuan-inc/Baichuan2-7B-Base/resolve/main/Baichuan%202%E6%A8%A1%E5%9E%8B%E7%A4%BE%E5%8C%BA%E8%AE%B8%E5%8F%AF%E5%8D%8F%E8%AE%AE.pdf)和[CC BY-NC-SA 4.0协议](https://creativecommons.org/licenses/by-nc-sa/4.0/deed.zh-hans)。
|
291 |
|
292 |
+
v0.9版本模型的使用须遵守[Qwen模型许可协议](https://github.com/QwenLM/Qwen/blob/main/Tongyi%20Qianwen%20LICENSE%20AGREEMENT)和[CC BY-NC-SA 4.0协议](https://creativecommons.org/licenses/by-nc-sa/4.0/deed.zh-hans)。
|