AlexTian commited on
Commit
19ca1f3
·
verified ·
1 Parent(s): ee0c8f2

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +69 -0
README.md CHANGED
@@ -2,4 +2,73 @@
2
  license: other
3
  license_name: tongyi-qianwen
4
  license_link: LICENSE
 
 
 
 
 
 
 
 
5
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2
  license: other
3
  license_name: tongyi-qianwen
4
  license_link: LICENSE
5
+ language:
6
+ - en
7
+ - zh
8
+ tags:
9
+ - qwen
10
+ - rkllm
11
+ - rk3588
12
+ - RockChip
13
  ---
14
+ # 模型名称 / Model Name
15
+
16
+ ## 简介 / Overview
17
+
18
+ <div>
19
+ <button onclick="openTab('zh')">中文</button>
20
+ <button onclick="openTab('en')">English</button>
21
+ </div>
22
+
23
+ <div id="zh" class="tabcontent" style="display:none;">
24
+
25
+ 这是从 [Qwen-1_8B](https://huggingface.co/Qwen/Qwen-1_8B/) 转换而来的RKLLM模型,用于Rockchip设备的转换模型。
26
+ 该模型在RK3588的NPU上运行。
27
+
28
+ - **模型名称**: Qwen-1_8B
29
+ - **模型架构**: 同Qwen-1_8B
30
+ - **发布者**: FydeOS
31
+ - **日期**: 2024-05-14
32
+
33
+ ### 模型详情
34
+ 通义千问-1.8B(Qwen-1.8B)是阿里云研发的通义千问大模型系列的18亿参数规模的模型。Qwen-1.8B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。
35
+
36
+ ### 要求
37
+ python 3.8及以上版本
38
+ pytorch 1.12及以上版本,推荐2.0及以上版本
39
+ 建议使用CUDA 11.4及以上(GPU用户、flash-attention用户等需考虑此选项)
40
+ python 3.8 and above
41
+ pytorch 1.12 and above, 2.0 and above are recommended
42
+ CUDA 11.4 and above are recommended (this is for GPU users, flash-attention users, etc.)
43
+
44
+ ### 使用指南
45
+ > 本模型仅支持运行在搭载 rk3588 芯片的相关设备,请确认芯片信息并保证 npu 可用
46
+ #### OpenFyde 系统
47
+ > ⚠️:请确认你已经升级到openfyde的最新版本
48
+ - 点击下载模型文件 `XXX.rkllm`
49
+ - 新建文件夹 `model/` ,将模型文件放置在此文件夹下
50
+ - 启动 FydeOS AI ,在设置页面进行相关设置
51
+
52
+ #### 非 OpenFyde 系统
53
+ > ⚠️:请确认你进行了 rkllm 的 npu 相关内核更新,支持内核版本为:kernel-5.10 和 kernel-6.1;对于 kernel-5.10,建议使用具体版本号 5.10.198,内核地址
54
+ 为 GitHub-rockchip-linux/kernelatdevelop-5.10;对于 kernel-6.1,建议使用具体版本号 6.1.57;NPU 内核为 v0.9.3 版本
55
+ - 点击下载模型文件 `XXX.rkllm`
56
+ - 参考官方文档进行配置:[官方文档](https://github.com/airockchip/rknn-llm)
57
+
58
+ ### FAQ
59
+ 如遇到问题,敬请查阅issue区,如仍无法解决再提交issue。
60
+
61
+ ### 限制与注意事项
62
+ 说明模型的局限性和使用中的注意事项。
63
+
64
+ ### 许可证
65
+ 采用与[Qwen-1_8B](https://huggingface.co/Qwen/Qwen-1_8B/)相同的许可证。
66
+
67
+ ### 联系方式
68
+ 如需更多信息,请联系:
69
+ - **电子邮件**: [email protected]
70
+ - **主页**: [FydeOS AI](https://fydeos.ai/zh/)
71
+ </div>
72
+
73
+ <div id="en" class="tabcontent" style="display:none;">
74
+ This is a conversion from [Qwen-1_8B](https://huggingface.co/Qwen/Qwen-1_8B/) to the RKLLM format for Rockchip devices. This model runs on the NPU from the RK3588.