m1288 commited on
Commit
159b8f4
1 Parent(s): 5dde0ad

Upload 20241012_202932_21677460.txt

Browse files
Files changed (1) hide show
  1. 20241012_202932_21677460.txt +41 -0
20241012_202932_21677460.txt ADDED
@@ -0,0 +1,41 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ 《70亿参数模型训练完成,关键词续写科研失败,开源鉴黄工具》(作品 ID: 21677460)
2
+ 作者:a686d380 (pixiv ID: 82296752)
3
+
4
+
5
+ ===== 第 1 页,共 1 页 =====
6
+
7
+ 更大的70亿参数模型训练完成
8
+
9
+ 模型地址: https://huggingface.co/a686d380/rwkv-5-h-world
10
+
11
+ 使用教程和上期一样,只需要把模型从rwkv-5-h-world-1b5替换为rwkv-5-h-world-7B,并把精度改为int8
12
+
13
+ 教程 https://www.pixiv.net/novel/show.php?id=21039830
14
+
15
+ Google Colab在线测试
16
+
17
+ 由于7B太大了,Google colab内存吃不下,目前是CPU推理,速度非常慢,建议想办法本地运行
18
+
19
+ https://colab.research.google.com/drive/1KKTesMvL1frynfW-NaTkwUDlyeons3-K?usp=sharing
20
+
21
+ 7B对于显存和配置要求更高,fp16预期显存占用15G, int8占用7.5G。
22
+
23
+ 如果你的配置极低但仍然想尝试7B,可以尝试使用CPU推理,模型选择下方量化版本的模型
24
+
25
+ https://huggingface.co/a686d380/rwkv-5-h-world-ggml
26
+
27
+ 基于关键词续写的模型宣布科研失败,你可以在下方寻找到半成品 rwkv-5-h-world-1b5-keywords.pth
28
+
29
+ https://huggingface.co/a686d380/rwkv-h-world-test
30
+
31
+ 开源一个简单的小说鉴黄工具
32
+
33
+ https://huggingface.co/datasets/a686d380/simple-h
34
+
35
+ 7B参数的训练消耗了1w RMB租用显卡,达到了我能承受的极限。此外技术进展没有想象的快,长文本有逻辑地生成小说仍然没有很好的解决方案。今年的主要工作是收集更多数据并等待技术进步,也可能考虑研究其他AI R18内容生成(不包括较为成熟的文生图)。
36
+
37
+ 此外欢迎有意向的朋友拿着这个开源模型商业化,毕竟大部分人没有合适的显卡或者苦于不会配置。但是我不会提供技术支持也不会索取任何报酬。
38
+
39
+ ## 交流讨论
40
+
41
+ https://discord.gg/V5m42EqZE5