sakuraumi commited on
Commit
b26fa53
·
verified ·
1 Parent(s): 9099e24

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +60 -25
README.md CHANGED
@@ -19,6 +19,8 @@ pipeline_tag: text-generation
19
  🦉 <a href="https://github.com/pipixia244/Sakura-13B-Galgame" target="_blank">GitHub</a> | 🤖 <a href="https://www.modelscope.cn/models/sakuraumi/Sakura-13B-Galgame" target="_blank">ModelScope</a>
20
  </p>
21
 
 
 
22
  # 介绍
23
 
24
  - 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型。
@@ -32,10 +34,11 @@ pipeline_tag: text-generation
32
  **对于其他适配本模型的项目如使用非本项目提供的prompt格式进行翻译,不保证会获得与README中的说明一致的质量!**
33
 
34
  **如果使用模型翻译并发布,请在最显眼的位置标注机翻!!!!!开发者对于滥用本模型造成的一切后果不负任何责任。**
 
35
 
36
  **对于模型翻译的人称代词问题(错用,乱加,主宾混淆,男女不分等)和上下文理解问题,如果有好的想法或建议,欢迎提issue!**
37
 
38
- ### Roadmap:见https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/42
39
 
40
  ## 快速开始
41
 
@@ -45,18 +48,27 @@ pipeline_tag: text-generation
45
 
46
  ### 模型下载:
47
 
48
- | 版本 | Transformers模型 | GGUF量化模型 | GPTQ 8bit量化 | GPTQ 4bit量化 | GPTQ 3bit量化 | AWQ量化
49
- |:-------:|:-------:|:-------:|:-------:|:-------:|:-------:|:-------:|
50
- | 20231026-v0.8 | 🤗 [Sakura-13B-LNovel-v0.8](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8) | 🤗 [Sakura-13B-LNovel-v0_8-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8-GGUF) | 🤗 [Sakura-13B-LNovel-v0_8-8bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-8bit) | 🤗 [Sakura-13B-LNovel-v0_8-4bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-4bit) | 🤗 [Sakura-13B-LNovel-v0_8-3bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-3bit) | 🤗 [Sakura-13B-LNovel-v0_8-AWQ](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-AWQ) |
51
- | 20240111-v0.9 | 🤗 [Sakura-13B-LNovel-v0.9](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9) | 🤗 [Sakura-13B-LNovel-v0.9b-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9b-GGUF) | - | - | - | - |
 
 
 
 
 
52
 
53
  p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.co`改成`hf-mirror.com`,使用hf镜像站下载。
54
 
55
  ## News
56
 
57
- 1. **[KurikoMoe](https://github.com/kurikomoe)为LunaTranslator支持了流式输出:[release地址](https://github.com/kurikomoe/LunaTranslator/releases/latest)。注意:目前该模式下只能单独开启sakura翻译,不能同时开启其他翻译。**
 
 
 
 
58
 
59
- 1. **更新了0.9的正式版模型`v0.9b`。相比`v0.9`删除了一个可能导致污染的数据集。清洗并增加了预训练与微调的数据量。更推荐使用正式版模型,它会比之前的pre版本更加稳定,质量更高。**
60
 
61
  1. **增加了vllm模型后端的支持,详见**[#40](https://github.com/SakuraLLM/Sakura-13B-Galgame/pull/40)
62
 
@@ -72,7 +84,7 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
72
  轻小说机翻机器人网站是一个自动生成轻小说机翻并分享的网站。你可以浏览日文网络小说,或者上传Epub/Txt文件,并生成机翻。
73
 
74
  1. [LunaTranslator](https://github.com/HIllya51/LunaTranslator)已经支持Sakura API,可以通过本地部署API后端,并在LunaTranslator中配置Sakura API来使用Sakura模型进行Galgame实时翻译。
75
- 使用[KurikoMoe](https://github.com/kurikomoe/LunaTranslator/releases/latest)的版本可以支持流式输出。
76
 
77
  LunaTranslator是一个Galgame翻译工具,支持剪贴板、OCR、HOOK,支持40余种翻译引擎。
78
 
@@ -86,13 +98,17 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
86
 
87
  1. [AiNiee](https://github.com/NEKOparapa/AiNiee-chatgpt)已经支持Sakura API,可以通过本地部署API后端,在AiNiee中使用Sakura模型进行翻译。
88
 
89
- AiNiee是一款基于【mtool】或【Translator++】,chatgpt自动批量翻译工具,主要是用来翻译各种RPG游戏。
 
 
 
 
90
 
91
  # 显存需求
92
 
93
  下面的表格显示了使用不同量化和不同格式的模型时显存占用的大小。如果你的显卡显存不满足上述需求,可以尝试同时使用CPU与GPU进行推理。
94
 
95
- - llama.cpp GGUF模型(使用v0.9.0pre1模型进行测试,v0.8模型与其类似)
96
 
97
  | 模型量化类型 | 模型大小 | 推荐显存大小 |
98
  |:-------:|:-------:|:-------:|
@@ -104,23 +120,15 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
104
  | Q3_K_M | 7.2G | 16G |
105
  | Q2_K | 6.1G | 12G |
106
 
107
- - transformers autogptq模型(使用v0.8版本进行测试)
108
-
109
- | 模型量化类型 | 推理显存(ctx约600) | 推理显存(ctx约1800) |
110
- |:-------:|:-------:|:-------:|
111
- | 全量 | 超出游戏显卡显存范围 | 超出游戏显卡显存范围 |
112
- | 8bit | 21.1G | 23.4G |
113
- | 4bit | 14.9G | 17.4G |
114
- | 3bit | 13.7G | 15.5G |
115
-
116
  # 模型详情
117
 
118
  ## 描述
119
 
120
  - Finetuned by [SakuraUmi](https://github.com/pipixia244)
121
  - Finetuned on [Baichuan2-13B-Chat](https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat)
122
- - Finetuned on [Qwen-14B-Chat](https://huggingface.co/Qwen/Qwen-14B-Chat)
123
- - Finetuned on [Sakura-13B-Base-v0.9.0](https://huggingface.co/SakuraLLM/Sakura-13B-Base-v0.9.0)
 
124
  - Languages: Chinese/Japanese
125
 
126
  ## 效果
@@ -131,7 +139,7 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
131
 
132
  - 轻小说
133
 
134
- 网站:[轻小说机翻机器人](https://books.fishhawk.top/)已接入Sakura模型(v0.8-4bit),站内有大量模型翻译的轻小说可供参考。
135
 
136
  - PPL/BLEU/Human
137
 
@@ -159,6 +167,33 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
159
  ```
160
  - prompt格式:
161
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
162
  - v0.9
163
  文本格式如下:
164
  ```
@@ -212,7 +247,7 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
212
  | max new token | 512 |
213
  | min new token | 1 |
214
 
215
- **如出现退化,可增加`frequency_penalty`参数,并设置为大于0的某值,一般设置0.05~0.2即可。**
216
 
217
  # 微调
218
 
@@ -252,6 +287,6 @@ p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.
252
 
253
  # Copyright Notice
254
 
255
- v0.8版本模型的使用须遵守[Apache 2.0](https://github.com/baichuan-inc/Baichuan2/blob/main/LICENSE)[《Baichuan 2 模型社区许可协议》](https://huggingface.co/baichuan-inc/Baichuan2-7B-Base/resolve/main/Baichuan%202%E6%A8%A1%E5%9E%8B%E7%A4%BE%E5%8C%BA%E8%AE%B8%E5%8F%AF%E5%8D%8F%E8%AE%AE.pdf)。
256
 
257
- v0.9版本模型的使用须遵守[Qwen模型许可协议](https://github.com/QwenLM/Qwen/blob/main/Tongyi%20Qianwen%20LICENSE%20AGREEMENT)。
 
19
  🦉 <a href="https://github.com/pipixia244/Sakura-13B-Galgame" target="_blank">GitHub</a> | 🤖 <a href="https://www.modelscope.cn/models/sakuraumi/Sakura-13B-Galgame" target="_blank">ModelScope</a>
20
  </p>
21
 
22
+ # 目前Sakura发布的所有模型均采用[CC BY-NC-SA 4.0协议](https://creativecommons.org/licenses/by-nc-sa/4.0/deed.zh-hans),Sakura所有模型与其衍生模型均禁止任何形式的商用!Sakura系列所有模型皆仅供学习交流使用,开发者对使用Sakura模型造成的问题不负任何责任。
23
+
24
  # 介绍
25
 
26
  - 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型。
 
34
  **对于其他适配本模型的项目如使用非本项目提供的prompt格式进行翻译,不保证会获得与README中的说明一致的质量!**
35
 
36
  **如果使用模型翻译并发布,请在最显眼的位置标注机翻!!!!!开发者对于滥用本模型造成的一切后果不负任何责任。**
37
+ > 由于模型一直在更新,请同时注明使用的模型版本等信息,方便进行质量评估和更新翻译。
38
 
39
  **对于模型翻译的人称代词问题(错用,乱加,主宾混淆,男女不分等)和上下文理解问题,如果有好的想法或建议,欢迎提issue!**
40
 
41
+ ### TODO:见https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/42
42
 
43
  ## 快速开始
44
 
 
48
 
49
  ### 模型下载:
50
 
51
+ | 参数量 | 发布时间-底模-版本 | Transformers模型 | GGUF量化模型 |
52
+ |:-------:|:-------:|:-------:|:-------:|
53
+ | 32B | 20240508-Qwen1.5-32B-v0.9 | - | 🤗 [Sakura-32B-Qwen2beta-v0.9](https://huggingface.co/SakuraLLM/Sakura-32B-Qwen2beta-v0.9-GGUF) |
54
+ | | 20240508-Qwen1.5-32B-v0.10pre1 | - | - |
55
+ | 14B | 20240111-Qwen-14B-v0.9 | 🤗 [Sakura-13B-LNovel-v0.9](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9) | 🤗 [Sakura-13B-LNovel-v0.9b-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9b-GGUF) |
56
+ | | 20240213-Qwen1.5-14B-v0.9 | 🤗 [Sakura-14B-Qwen2beta-v0.9](https://huggingface.co/SakuraLLM/Sakura-14B-Qwen2beta-v0.9) | 🤗 [Sakura-14B-Qwen2beta-v0.9-GGUF](https://huggingface.co/SakuraLLM/Sakura-14B-Qwen2beta-v0.9-GGUF) |
57
+ | 7B | 20240116-Qwen-7B-v0.9 | - | 🤗 [Sakura-7B-LNovel-v0.9-GGUF](https://huggingface.co/SakuraLLM/Sakura-7B-LNovel-v0.9-GGUF) |
58
+ | 1.8B| 20240214-Qwen1.5-1.8B-v0.9.1 | 🤗 [Sakura-1B8-Qwen2beta-v0.9.1](https://huggingface.co/SakuraLLM/Sakura-1B8-Qwen2beta-v0.9.1) | 🤗 [Sakura-1B8-Qwen2beta-v0.9.1](https://huggingface.co/SakuraLLM/Sakura-1B8-Qwen2beta-v0.9.1-GGUF) |
59
+
60
 
61
  p.s. 如果无法连接到HuggingFace服务器,可将链接中的`huggingface.co`改成`hf-mirror.com`,使用hf镜像站下载。
62
 
63
  ## News
64
 
65
+ 1. **更新了基于Qwen1.5-32B底模的v0.9与v0.10pre1版本的GGUF模型。其中v0.10pre1版本为v0.10的预览版,具备术语表功能,相比上一版本优化翻译质量,同时使用新的prompt格式,详见[推理部分](https://github.com/SakuraLLM/Sakura-13B-Galgame?tab=readme-ov-file#%E6%8E%A8%E7%90%86)的prompt格式部分。**
66
+
67
+ 1. **更新了使用Importance Matrix进行量化的Sakura-14B-Qwen2beta-v0.9-GGUF模型。[模型地址](https://huggingface.co/SakuraLLM/Sakura-14B-Qwen2beta-v0.9-GGUF/blob/main/sakura-14b-qwen2beta-v0.9-iq4_xs_ver2.gguf)**
68
+
69
+ 1. **更新了基于Qwen1.5底模的`v0.9`版本模型,包括14B和1.8B两个版本。注意:此版本模型的结构为Qwen2. 同时补充更新了基于Qwen 7B的`v0.9`版本模型。**
70
 
71
+ 1. **更新了0.9的正式版模型`v0.9b`。清洗并增加了预训练与微调的数据量。更推荐使用正式版模型,它会比之前的pre版本更加稳定,质量更高。**
72
 
73
  1. **增加了vllm模型后端的支持,详见**[#40](https://github.com/SakuraLLM/Sakura-13B-Galgame/pull/40)
74
 
 
84
  轻小说机翻机器人网站是一个自动生成轻小说机翻并分享的网站。你可以浏览日文网络小说,或者上传Epub/Txt文件,并生成机翻。
85
 
86
  1. [LunaTranslator](https://github.com/HIllya51/LunaTranslator)已经支持Sakura API,可以通过本地部署API后端,并在LunaTranslator中配置Sakura API来使用Sakura模型进行Galgame实时翻译。
87
+ ~~使用[KurikoMoe](https://github.com/kurikomoe/LunaTranslator/releases/latest)的版本可以支持流式输出。~~ 目前官方版本已经支持流式输出,只需在翻译设置界面勾选流式输出即可。
88
 
89
  LunaTranslator是一个Galgame翻译工具,支持剪贴板、OCR、HOOK,支持40余种翻译引擎。
90
 
 
98
 
99
  1. [AiNiee](https://github.com/NEKOparapa/AiNiee-chatgpt)已经支持Sakura API,可以通过本地部署API后端,在AiNiee中使用Sakura模型进行翻译。
100
 
101
+ AiNiee是一款基于【mtool】或【Translator++】,chatgpt自动批量翻译工具,主要是用来翻译各种RPG游戏。
102
+
103
+ 1. [manga-image-translator](https://github.com/zyddnys/manga-image-translator)已经支持Sakura API,可以通过本地部署API后端,使用Sakura自动翻译漫画。
104
+
105
+ 1. [BallonsTranslator](https://github.com/dmMaze/BallonsTranslator)已经支持Sakura API,可以通过本地部署API后端,使用Sakura翻译漫画。
106
 
107
  # 显存需求
108
 
109
  下面的表格显示了使用不同量化和不同格式的模型时显存占用的大小。如果你的显卡显存不满足上述需求,可以尝试同时使用CPU与GPU进行推理。
110
 
111
+ - llama.cpp GGUF模型(使用Qwen-14B v0.9模型进行测试)
112
 
113
  | 模型量化类型 | 模型大小 | 推荐显存大小 |
114
  |:-------:|:-------:|:-------:|
 
120
  | Q3_K_M | 7.2G | 16G |
121
  | Q2_K | 6.1G | 12G |
122
 
 
 
 
 
 
 
 
 
 
123
  # 模型详情
124
 
125
  ## 描述
126
 
127
  - Finetuned by [SakuraUmi](https://github.com/pipixia244)
128
  - Finetuned on [Baichuan2-13B-Chat](https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat)
129
+ - Continual Pre-trained on [Qwen model series](https://github.com/QwenLM/Qwen)
130
+ - Continual Pre-trained on [Qwen1.5 model series](https://github.com/QwenLM/Qwen1.5)
131
+ - Finetuned on Sakura-Base model series
132
  - Languages: Chinese/Japanese
133
 
134
  ## 效果
 
139
 
140
  - 轻小说
141
 
142
+ 网站:[轻小说机翻机器人](https://books.fishhawk.top/)已接入Sakura模型(v0.9),站内有大量模型翻译的轻小说可供参考。
143
 
144
  - PPL/BLEU/Human
145
 
 
167
  ```
168
  - prompt格式:
169
 
170
+ - v0.10pre1
171
+ 代码处理如下:
172
+ ```python
173
+ gpt_dict = [{
174
+ "src": "原文1",
175
+ "dst": "译文1",
176
+ "info": "注释信息1",
177
+ },]
178
+ gpt_dict_text_list = []
179
+ for gpt in gpt_dict:
180
+ src = gpt['src']
181
+ dst = gpt['dst']
182
+ info = gpt['info'] if "info" in gpt.keys() else None
183
+ if info:
184
+ single = f"{src}->{dst} #{info}"
185
+ else:
186
+ single = f"{src}->{dst}"
187
+ gpt_dict_text_list.append(single)
188
+
189
+ gpt_dict_raw_text = "\n".join(gpt_dict_text_list)
190
+
191
+ user_prompt = "根据以下术语表(可以为空):\n" + gpt_dict_raw_text + "\n\n" + "将下面的日文文本根据上述术语表的对应关系和备注翻译成中文:" + japanese
192
+ prompt = "<|im_start|>system\n你是一个轻小说翻译模型,可以流畅通顺地使用给定的术语表以日本轻小说的风格将日文翻译成简体中文,并联系上下文正确使用人称代词,注意不要混淆使役态和被动态的主语和宾语,不要擅自添加原文中没有的代词,也不要擅自增加或减少换行。<|im_end|>\n" \ # system prompt
193
+ + "<|im_start|>user\n" + user_prompt + "<|im_end|>\n" \ # user prompt
194
+ + "<|im_start|>assistant\n" # assistant prompt start
195
+ ```
196
+
197
  - v0.9
198
  文本格式如下:
199
  ```
 
247
  | max new token | 512 |
248
  | min new token | 1 |
249
 
250
+ **如出现退化(退化的例子可参见[#35](https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/35)与[#36](https://github.com/SakuraLLM/Sakura-13B-Galgame/issues/36)),可增加`frequency_penalty`参数,并设置为大于0的某值,一般设置0.1~0.2即可。**
251
 
252
  # 微调
253
 
 
287
 
288
  # Copyright Notice
289
 
290
+ v0.8版本模型的使用须遵守[Apache 2.0](https://github.com/baichuan-inc/Baichuan2/blob/main/LICENSE)[《Baichuan 2 模型社区许可协议》](https://huggingface.co/baichuan-inc/Baichuan2-7B-Base/resolve/main/Baichuan%202%E6%A8%A1%E5%9E%8B%E7%A4%BE%E5%8C%BA%E8%AE%B8%E5%8F%AF%E5%8D%8F%E8%AE%AE.pdf)和[CC BY-NC-SA 4.0协议](https://creativecommons.org/licenses/by-nc-sa/4.0/deed.zh-hans)
291
 
292
+ v0.9版本模型的使用须遵守[Qwen模型许可协议](https://github.com/QwenLM/Qwen/blob/main/Tongyi%20Qianwen%20LICENSE%20AGREEMENT)和[CC BY-NC-SA 4.0协议](https://creativecommons.org/licenses/by-nc-sa/4.0/deed.zh-hans)