upload: README
Browse files- README.md +35 -3
- READMEjpg/Untitled.png +0 -0
- READMEjpg/Untitled1.png +0 -0
- READMEjpg/Untitled2.png +0 -0
README.md
CHANGED
@@ -1,3 +1,35 @@
|
|
1 |
-
|
2 |
-
|
3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
# README
|
2 |
+
|
3 |
+
# Zhuhai-13B
|
4 |
+
|
5 |
+
[Hugging Face](https://huggingface.co/emotibot-inc/Zhuhai-13B) | [GitHub](https://github.com/emotibot-inc/Zhuhai-13B) | [Model Scope](https://modelscope.cn/models/emotibotinc/Zhuhai-13B/summary) | [Emotibrain](https://brain.emotibot.com/?source=zhuhai13b_huggingface)
|
6 |
+
|
7 |
+
# **模型介绍**
|
8 |
+
|
9 |
+
"竹海-13B"是竹间智能继“竹海-7B”之后开发的一款拥大模语言模型,以下是“竹海-13B”的四个主要特点:
|
10 |
+
|
11 |
+
- 更大尺寸、更多数据:相比于“竹海-7B”,我们将参数量扩大到130亿,并在高质量语料上训练了1.2万亿tokens。Zhuhai-13B的上下文窗口长度为4096。
|
12 |
+
|
13 |
+
- 高效性能:基于Transformer结构,在大约1.2万亿tokens上训练出来的130亿参数模型,支持中英双语。
|
14 |
+
|
15 |
+
- 安全性:我们对“竹海-13B”进行了严格的安全控制和优化,确保其在实际应用中不会产生任何不适当或误导性的输出。通过精心设计和调整算法参数,“竹海-13B”可以有效地避免乱说话现象。
|
16 |
+
|
17 |
+
# **推理对话**
|
18 |
+
|
19 |
+
您可以直接注册并登录竹间智能科技发布的大模型产品 [Emotibrain](https://brain.emotibot.com/?source=zhuhai13b_huggingface),并选择 **CoPilot**(**KKBot**) 进行的在线测试,注册即可立即使用;
|
20 |
+
|
21 |
+

|
22 |
+
|
23 |
+
# **模型训练**
|
24 |
+
|
25 |
+
您可以直接注册并登录竹间智能科技发布的大模型产品 [Emotibrain](https://brain.emotibot.com/?source=zhuhai13b_huggingface),并选择 Fine-tune 进行 **0 代码微调**,注册即可立即使用;
|
26 |
+
|
27 |
+
详细的训练流程您可以浏览此文档:[Emotibrain 快速入门](https://brain.emotibot.com/supports/model-factory/dash-into.html)(大约 5 分钟)
|
28 |
+
|
29 |
+

|
30 |
+
|
31 |
+

|
32 |
+
|
33 |
+
# **更多信息**
|
34 |
+
|
35 |
+
若您想了解更多 大模型训练平台 的相关信息,请访问 [Emotibrain 官网](https://brain.emotibot.com/?source=zhuhai13b_huggingface) 进行了解;
|
READMEjpg/Untitled.png
ADDED
![]() |
READMEjpg/Untitled1.png
ADDED
![]() |
READMEjpg/Untitled2.png
ADDED
![]() |