sakuraumi commited on
Commit
1117d83
·
verified ·
1 Parent(s): c539b87

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +43 -15
README.md CHANGED
@@ -22,6 +22,8 @@ pipeline_tag: text-generation
22
  # 介绍
23
 
24
  - 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型。
 
 
25
 
26
  - 同时提供了运行模型的API后端,适配OpenAI API格式。
27
 
@@ -33,30 +35,39 @@ pipeline_tag: text-generation
33
 
34
  ## 快速开始
35
 
36
- 详见[Github仓库Wiki](https://github.com/SakuraLLM/Sakura-13B-Galgame/wiki).
 
 
 
 
 
 
 
 
 
37
 
38
  ## News
39
 
40
- 1. 预览版v0.9.0pre3模型发布。该版本模型只是预览版本,目前可能仍存在问题。增加了约30亿字(~2.5B tokens)领域内日文语料数据进行继续预训练。
41
 
42
- 2. **Sakura API已经支持OpenAI格式,现在可以通过OpenAI库或者OpenAI API Reference上的请求形式与Server交互。**
 
 
43
  一个使用OpenAI库与Sakura模型交互的例子详见[openai_example.py](https://github.com/SakuraLLM/Sakura-13B-Galgame/blob/main/tests/example_openai.py)。
44
 
45
- 4. 网站:[轻小说机翻机器人](https://books.fishhawk.top/)已接入Sakura模型(v0.8-4bit),站内有大量模型翻译结果可供参考。你也可以自行部署模型并使用该网站生成机翻,目前已经支持v0.8与v0.9模型,且提供了llama.cpp一键包。
 
 
46
 
47
  轻小说机翻机器人网站是一个自动生成轻小说机翻并分享的网站。你可以浏览日文网络小说,或者上传Epub/Txt文件,并生成机翻。
48
 
49
- 5. [LunaTranslator](https://github.com/HIllya51/LunaTranslator)已经支持Sakura API,可以通过本地部署API后端,并在LunaTranslator中配置Sakura API来使用Sakura模型翻译Galgame
50
 
51
  LunaTranslator是一个Galgame翻译工具,支持剪贴板、OCR、HOOK,支持40余种翻译引擎。
52
 
53
- ## 模型下载:
54
- | 版本 | 全量模型 | GPTQ 8bit量化 | GPTQ 4bit量化 | GPTQ 3bit量化 | GGUF与量化 | AWQ量化
55
- |:-------:|:-------:|:-------:|:-------:|:-------:|:-------:|:-------:|
56
- | 20231026-v0.8 | 🤗 [Sakura-13B-LNovel-v0.8](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8) | 🤗 [Sakura-13B-LNovel-v0_8-8bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-8bit) | 🤗 [Sakura-13B-LNovel-v0_8-4bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-4bit) | 🤗 [Sakura-13B-LNovel-v0_8-3bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-3bit) | 🤗 [Sakura-13B-LNovel-v0_8-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8-GGUF) | 🤗 [Sakura-13B-LNovel-v0_8-AWQ](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-AWQ) |
57
- | 20231125-v0.9.0pre3 | - | - | - | - | 🤗 [Sakura-13B-LNovel-v0.9.0pre3-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9.0pre3-GGUF) | - |
58
 
59
- 目前仍为实验版本,翻译质量在文风与流畅度上强于GPT-3.5,但词汇量逊于GPT-3.5. 个人使用推荐GPT4.
60
 
61
  # 显存需求
62
 
@@ -85,6 +96,8 @@ pipeline_tag: text-generation
85
 
86
  # 日志
87
 
 
 
88
  `20231125`: 上传第六版模型预览,改善数据集质量与格式,使用Qwen-14B-Chat模型进行继续预训练+微调,增加数据集。
89
 
90
  `20231026`:上传第五版模型`sakura-13b-2epoch-3.8M-1025-v0.8`,改善数据集质量与格式,修复之前版本模型无法正确解析\n的问题,使用Baichuan2-13B-Chat模型进行微调。
@@ -105,14 +118,15 @@ pipeline_tag: text-generation
105
 
106
  - Finetuned by [SakuraUmi](https://github.com/pipixia244)
107
  - Finetuned on [Baichuan2-13B-Chat](https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat)
108
- - Finetuned on [Qwen-14B-Chat](https://huggingface.co/Qwen/Qwen-14B)
 
109
  - Languages: Chinese/Japanese
110
 
111
  ## 效果
112
 
113
  - Galgame
114
 
115
- TBD
116
 
117
  - 轻小说
118
 
@@ -154,12 +168,20 @@ pipeline_tag: text-generation
154
  | max new token | 512 |
155
  | min new token | 1 |
156
 
157
- 如出现退化,可增加`frequency_penalty`参数,并设置为大于0的某值,一般设置0.05~0.2即可。
158
 
159
  # 微调
160
 
161
  模型微调框架参考[BELLE](https://github.com/LianjiaTech/BELLE)或[LLaMA-Factory](https://github.com/hiyouga/LLaMA-Factory),prompt构造参考推理部分。
162
 
 
 
 
 
 
 
 
 
163
  # 致谢
164
 
165
  - [CjangCjengh](https://github.com/CjangCjengh)
@@ -178,6 +200,12 @@ pipeline_tag: text-generation
178
 
179
  - [YYF233333](https://github.com/YYF233333)
180
 
 
 
 
 
181
  # Copyright Notice
182
 
183
- v0.8版本模型的使用须遵守[Apache 2.0](https://github.com/baichuan-inc/Baichuan2/blob/main/LICENSE)和[《Baichuan 2 模型社区许可协议》](https://huggingface.co/baichuan-inc/Baichuan2-7B-Base/resolve/main/Baichuan%202%E6%A8%A1%E5%9E%8B%E7%A4%BE%E5%8C%BA%E8%AE%B8%E5%8F%AF%E5%8D%8F%E8%AE%AE.pdf)。
 
 
 
22
  # 介绍
23
 
24
  - 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供性能接近GPT3.5且完全离线的Galgame/轻小说翻译大语言模型。
25
+
26
+ - 目前仍为实验版本,v0.9版本模型在文风、流畅度与准确性上均强于GPT-3.5,但词汇量略逊于GPT-3.5(主观评价).
27
 
28
  - 同时提供了运行模型的API后端,适配OpenAI API格式。
29
 
 
35
 
36
  ## 快速开始
37
 
38
+ ### 教程:
39
+
40
+ 详见[本仓库Wiki](https://github.com/SakuraLLM/Sakura-13B-Galgame/wiki).
41
+
42
+ ### 模型下载:
43
+
44
+ | 版本 | Transformers模型 | GGUF量化模型 | GPTQ 8bit量化 | GPTQ 4bit量化 | GPTQ 3bit量化 | AWQ量化
45
+ |:-------:|:-------:|:-------:|:-------:|:-------:|:-------:|:-------:|
46
+ | 20231026-v0.8 | 🤗 [Sakura-13B-LNovel-v0.8](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8) | 🤗 [Sakura-13B-LNovel-v0_8-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.8-GGUF) | 🤗 [Sakura-13B-LNovel-v0_8-8bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-8bit) | 🤗 [Sakura-13B-LNovel-v0_8-4bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-4bit) | 🤗 [Sakura-13B-LNovel-v0_8-3bit](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-3bit) | 🤗 [Sakura-13B-LNovel-v0_8-AWQ](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0_8-AWQ) |
47
+ | 20240111-v0.9 | 🤗 [Sakura-13B-LNovel-v0.9](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9) | 🤗 [Sakura-13B-LNovel-v0.9-GGUF](https://huggingface.co/SakuraLLM/Sakura-13B-LNovel-v0.9-GGUF) | - | - | - | - |
48
 
49
  ## News
50
 
51
+ 1. **更新了0.9的第一个正式版模型`v0.9`。修复若干bug,清洗并增加了预训练与微调的数据量。更推荐使用正式版模型,它会比之前的pre版本更加稳定,质量更高。**
52
 
53
+ 1. 感谢[Isotr0py](https://github.com/Isotr0py)提供运行模型的NoteBook仓库[SakuraLLM-Notebooks](https://github.com/Isotr0py/SakuraLLM-Notebooks),可在[Colab](https://colab.research.google.com/)(免费T4\*1)与[Kaggle](https://www.kaggle.com/)(免费P100\*1或T4\*2)平台使用。**已经更新Kaggle平台的[使用教程](https://github.com/SakuraLLM/Sakura-13B-Galgame/wiki/%E7%99%BD%E5%AB%96Kaggle%E5%B9%B3%E5%8F%B0%E9%83%A8%E7%BD%B2%E6%95%99%E7%A8%8B),可以白嫖一定时间的T4\*2。**
54
+
55
+ 1. **Sakura API已经支持OpenAI格式,现在可以通过OpenAI库或者OpenAI API Reference上的请求形式与Server交互。**
56
  一个使用OpenAI库与Sakura模型交互的例子详见[openai_example.py](https://github.com/SakuraLLM/Sakura-13B-Galgame/blob/main/tests/example_openai.py)。
57
 
58
+ ## 已经接入模型的工具
59
+
60
+ 1. 网站:[轻小说机翻机器人](https://books.fishhawk.top/)已接入Sakura模型(v0.8-4bit),站内有大量模型翻译结果可供参考。你也可以自行部署模型并使用该网站生成机翻,目前已经支持v0.8与v0.9模型,且提供了llama.cpp一键包。
61
 
62
  轻小说机翻机器人网站是一个自动生成轻小说机翻并分享的网站。你可以浏览日文网络小说,或者上传Epub/Txt文件,并生成机翻。
63
 
64
+ 1. [LunaTranslator](https://github.com/HIllya51/LunaTranslator)已经支持Sakura API,可以通过本地部署API后端,并在LunaTranslator中配置Sakura API来使用Sakura模型进行Galgame实时翻译。
65
 
66
  LunaTranslator是一个Galgame翻译工具,支持剪贴板、OCR、HOOK,支持40余种翻译引擎。
67
 
68
+ 1. [GalTransl](https://github.com/XD2333/GalTransl)已经支持Sakura API,可以通过本地部署API后端,在GalTransl中配置使用Sakura模型来翻译Galgame,制作内嵌式翻译补丁。
 
 
 
 
69
 
70
+ GalTransl是一个galgame自动化翻译工具,用于制作内嵌式翻译补丁。一个使用GalTransl和Sakura模型翻译的[示例](https://www.ai2moe.org/files/file/2271-%E6%88%AF%E7%94%BBgaltranslsakuragpt35%E7%88%B1%E4%B9%8B%E5%90%BB3-sexy-gpt%E7%BF%BB%E8%AF%91%E8%A1%A5%E4%B8%81uploadee5-mb/)
71
 
72
  # 显存需求
73
 
 
96
 
97
  # 日志
98
 
99
+ `20240111`:上传第六版模型的第一个正式版。修复一系列问题,清洗并新增了大量预训练/微调数据。
100
+
101
  `20231125`: 上传第六版模型预览,改善数据集质量与格式,使用Qwen-14B-Chat模型进行继续预训练+微调,增加数据集。
102
 
103
  `20231026`:上传第五版模型`sakura-13b-2epoch-3.8M-1025-v0.8`,改善数据集质量与格式,修复之前版本模型无法正确解析\n的问题,使用Baichuan2-13B-Chat模型进行微调。
 
118
 
119
  - Finetuned by [SakuraUmi](https://github.com/pipixia244)
120
  - Finetuned on [Baichuan2-13B-Chat](https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat)
121
+ - Finetuned on [Qwen-14B-Chat](https://huggingface.co/Qwen/Qwen-14B-Chat)
122
+ - Finetuned on [Sakura-13B-Base-v0.9.0](https://huggingface.co/SakuraLLM/Sakura-13B-Base-v0.9.0)
123
  - Languages: Chinese/Japanese
124
 
125
  ## 效果
126
 
127
  - Galgame
128
 
129
+ [一个例子](https://www.ai2moe.org/files/file/2271-%E6%88%AF%E7%94%BBgaltranslsakuragpt35%E7%88%B1%E4%B9%8B%E5%90%BB3-sexy-gpt%E7%BF%BB%E8%AF%91%E8%A1%A5%E4%B8%81uploadee5-mb/)
130
 
131
  - 轻小说
132
 
 
168
  | max new token | 512 |
169
  | min new token | 1 |
170
 
171
+ **如出现退化,可增加`frequency_penalty`参数,并设置为大于0的某值,一般设置0.05~0.2即可。**
172
 
173
  # 微调
174
 
175
  模型微调框架参考[BELLE](https://github.com/LianjiaTech/BELLE)或[LLaMA-Factory](https://github.com/hiyouga/LLaMA-Factory),prompt构造参考推理部分。
176
 
177
+ # 相关项目
178
+
179
+ - [轻小说机翻机器人](https://books.fishhawk.top/):轻小说翻译
180
+
181
+ - [LunaTranslator](https://github.com/HIllya51/LunaTranslator):Galgame在线翻译
182
+
183
+ - [GalTransl](https://github.com/XD2333/GalTransl):Galgame离线翻译,制作补丁
184
+
185
  # 致谢
186
 
187
  - [CjangCjengh](https://github.com/CjangCjengh)
 
200
 
201
  - [YYF233333](https://github.com/YYF233333)
202
 
203
+ - [Isotr0py](https://github.com/Isotr0py)
204
+
205
+ - [XD2333](https://github.com/XD2333)
206
+
207
  # Copyright Notice
208
 
209
+ v0.8版本模型的使用须遵守[Apache 2.0](https://github.com/baichuan-inc/Baichuan2/blob/main/LICENSE)和[《Baichuan 2 模型社区许可协议》](https://huggingface.co/baichuan-inc/Baichuan2-7B-Base/resolve/main/Baichuan%202%E6%A8%A1%E5%9E%8B%E7%A4%BE%E5%8C%BA%E8%AE%B8%E5%8F%AF%E5%8D%8F%E8%AE%AE.pdf)。
210
+
211
+ v0.9版本模型的使用须遵守[Qwen模型许可协议](https://github.com/QwenLM/Qwen/blob/main/Tongyi%20Qianwen%20LICENSE%20AGREEMENT)。