SecGPT 网络安全大模型

项目

简介

  • 随着大语言模型的崛起,网安大模型也掀起了一股热潮,本人在逛 GitHub 时偶然发现了云起无垠开源的 SecGPT,但官方调用脚本中使用了 Cuda,且没有提供 GGUF 版本,故使用了 llama.cpp 的 convert 脚本进行转换,并上传至huggingface

测试设备

  • MacBook Pro 16 寸
  • M3 Max
  • 48 GB

Usage

  • 分为 secgpt1.5.gguf , secgpt.ggufsecgpt-mini.gguf 三个版本
    • secgpt1.5.gguf基于qwen2, 需 28.5 G 显存
    • secgpt.gguf基于baichuan, 需 26.5 G 显存
    • secgpt-mini.gguf基于qwen2, 需 1.6 G 显存
  • 使用方法
    • 方法1:将 GGUF 导入LM Studio,并使用 secgpt-all.json 作为参数配置
    • 方法2:安装ollama,使用ollama run lingjing/secgpt_chat命令
Downloads last month
120
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no library tag.