中国科技核心期刊      中国指挥与控制学会会刊     军事装备类重点期刊
网络安全

基于RAG的网络安全大模型构建方法

  • 林文铅 1 ,
  • 刘小虎 1 ,
  • 张玉臣 1 ,
  • 张畅 1 ,
  • 周壮彪 2 ,
  • 史孟帅 1
展开
  • 1 信息工程大学, 河南 郑州 450001
  • 2 中国人民解放军31661部队, 广东 惠州 516000

林文铅(1990—),男,硕士研究生,研究方向为网络安全。

刘小虎(1989—),男,博士,副教授,硕士生导师。

收稿日期: 2025-06-30

  修回日期: 2025-07-12

  网络出版日期: 2026-01-23

The construction method of cybersecurity large model based on RAG

  • LIN Wenqian 1 ,
  • LIU Xiaohu 1 ,
  • ZHANG Yuchen 1 ,
  • ZHANG Chang 1 ,
  • ZHOU Zhuangbiao 2 ,
  • SHI Mengshuai 1
Expand
  • 1 Information Engineering University, Zhengzhou 450001, China
  • 2 The 31661 Unit of the People’s Liberation Army of China, Huizhou 516000, China

Received date: 2025-06-30

  Revised date: 2025-07-12

  Online published: 2026-01-23

摘要

针对传统网络安全技术在应对复杂网络攻击时的局限性,以及大语言模型(LLM)在网络安全应用中存在幻觉、知识库更新滞后和可解释性不足等问题,本文提出了一种基于检索增强生成(RAG)架构的网络安全大模型构建方法。该方法通过功能分析、架构设计、技术实现三个步骤,完成了RAG系统“4层1模块”构建与应用实现,弥补通用LLM在网络安全领域应用的短板。此外,本文还创新提出了参数自适应寻优、元数据过滤检索、动态权限管理和多轮评估反馈等机制,确保了模型的可用性、可信性和安全性。

本文引用格式

林文铅 , 刘小虎 , 张玉臣 , 张畅 , 周壮彪 , 史孟帅 . 基于RAG的网络安全大模型构建方法[J]. 指挥控制与仿真, 2026 , 48(1) : 146 -153 . DOI: 10.3969/j.issn.1673-3819.2026.01.020

Abstract

To address the limitations of traditional cybersecurity technologies in responding to complex cyberattacks and the challenges faced by large language model (LLM) in cybersecurity applications (e.g., hallucinations, outdated knowledge bases, and insufficient interpretability), this paper proposes a construction method for a cybersecurity large model based on the Retrieval-Augmented Generation (RAG) architecture. Through three stages—functional analysis, architectural design, and technical implementation—this approach completes the "4-layer, 1-module" construction and practical deployment of the RAG system, bridging the gaps in applying generic LLM to cybersecurity domains. Furthermore, this study innovatively introduces mechanisms including parameter adaptive optimization, metadata-filtered retrieval,dynamic permission management and multi-round evaluation feedback to ensure the model’s usability, trustworthiness and security.

随着技术发展,网络攻击呈现复杂度、强度、频度多维升级。传统网络防护体系面临多重挑战:实时流量检测系统误报率高,人工筛查效率低且易出现错漏[1];恶意程序隐蔽性不断增强;网络入侵行为识别难度上升;内部访问控制与行为审计不严不细;AI驱动的自动化攻击能更快突破传统防线[2]。网络安全运营人员经常处于高压状态,不仅要做好监测与预警工作,还要频繁进行事件处置与报告,费力制作《安全态势报告》等各类文书,以及解答用户咨询[3-4]。在当前安全法规多、处置时间约束强的情况下,安全运营工作难度加剧[5]
近年来,很多学者研究了将AI技术应用于网络安全威胁情报和日志分析、蜜罐技术等子领域[2,6],但受限于算法通用性不足与成本效益瓶颈,实际应用效果有限。大语言模型(Large Language Model,LLM)作为特殊的AI技术,在自然语言处理领域的突破为破解此困局提供新路径。它拥有自然语言接口与泛化能力强等优势,以及强大的文本理解与生成能力,且仍在迅速发展,目前已在医疗、法律、金融等专业领域得到广泛应用创新[7-9]。当前,通用LLM仍面临数据安全风险、幻觉问题及实时性不足缺陷等技术障碍[10],其决策黑箱特性更使关键领域持谨慎态度。在此背景下,本文提出基于检索增强生成(Retrieval-Augmented Generation,RAG)技术的网络安全大模型构建方法,通过知识库动态检索增强机制,可在保障安全可控的前提下有效弥补现有大模型短板。

1 RAG赋能网络安全运营分析

RAG技术结合动态检索外部知识库[11]和LLM生成技术,为网络安全智能提效转型提供了创新路径,可有效应对政府、企业和高校等单位网络安全运营中的痛点问题。基于RAG架构的LLM在网络安全领域更适用于方案设计与准实时(如日志分析、事后溯源等)任务,但难以达到实时流量检测和自动化响应的要求[12-13]。它对网络安全的强大助力作用体现在:
(1)即时威胁同步与多源数据汇总
面对快速演变的网络威胁,RAG技术无须重新训练LLM,即可通过外挂知识库实时检索最新威胁情报和攻防案例,以较低算力成本确保防御决策与当前威胁态势同步。本地部署的LLM和知识库在保障数据安全的前提下,可对内部真实网络结构和资产、各类实时日志进行综合分析,通过大模型强语言理解能力,解决来自多个厂商且不同类型的安防设备多源异构数据的汇总问题。虽受限于大模型推理延时和无法完全消除的幻觉问题,无法达到实时联动响应,但相比人工分析,质效大幅提升。
(2)可信决策溯源与智能响应生成
RAG可通过本地知识库生成内容并经审校后再输出,有效缓解LLM的“幻觉”问题[14],且结合内容溯源机制增强决策可信度和可解释性。基于此构建的安全大模型,可担任面向用户的智能问答助手,还可成为运维人员的强力帮手:准确捕捉复杂攻击行为并制定防御策略,自动生成网络安全态势报告、应急处置方案等标准化文档,包含IP阻断、主机隔离等操作的处置脚本,以及格式要求严格的安全设备配置文件(与安全设备的自动化联动需要厂商配合才可进行,且存在一定风险)。
(3)动态授权调整与数据分级防护
结合数据去隐私、同态加密、元数据标签和属性基访问控制技术,RAG在本地存储内部数据并实现动态授权。构建细粒度动态认证体系,通过用户属性、资源特征和行为模式的多维度分析,实现对高风险操作的自动收紧权限。该技术还可对接认证系统或终端管理系统,为单位内网或其他系统提供更安全的访问控制方案,在权限管控与运行效率间建立动态平衡。
综上,基于RAG构建的大模型可满足网络安全领域智能辅助的基本需求,且表现出经济、可靠、更新快等明显的技术优势。但我们也要认识到,RAG并非解决网络安全问题的万能方案,同样存在“检索框架无法支撑复杂攻击链推理”等短板,不适用于强对抗场景;且受限于企业中非专业团队的技术水平和小规模数据,代码分析、漏洞挖掘等高级能力难以优化。

2 网络安全大模型功能分析与架构设计

2.1 功能分析

综合考虑当前网络安全形势和安全运营工作短板,参考大模型能力分析理论以及其他领域人工智能应用现状,本文打造网络安全大模型智能助手,实现以下功能:
(1)网络安全专业知识咨询,其指通过智能问答或直接查询形式,在网络安全基本理论、相关法规等方面提供全天候技术援助。
(2)网络安全日常运营增效,其指在流量分析、日志审计、网络威胁检测识别等日常安防工作上,打造类似于SOC的智能化安防运营平台,提供自动化分析手段,降低误报率和错报率,提高工作质效。
(3)网络安全事件处置规范,其指针对病毒感染、网络攻击等安全威胁告警,在当前多重法规、强时限要求等约束下,结合真实网络数据迅速找到解决方法,提高应急响应速度,并规范处置行为以降低错误率。这是指既输出面向用户的重要漏洞修复等合理建议及处置流程,又输出面向设备的处置脚本和导入式配置策略。
(4)网络安全专业文书生成,其指网络安全运营全流程需要处理多种文书,包括建设阶段的《安全建设方案》和《等级保护测评报告》,运行阶段的《安全态势报告》,以及响应阶段的《事件处置情况报告》及记录等;可在充分掌握与分析真实数据的基础上,一键式生成内容全面、准确的文书初稿,并支持格式调整、校正和润色等功能,以满足不同上报需求,这将极大提高人员处理文书的效率。

2.2 架构设计

为实现上述功能,本文将网络安全大模型的设计主要分为4层1模块(数据输入层、增强处理层、模型生成层、输出控制层、权限控制模块),其基础架构如图1所示。
图1 网络安全大模型架构设计

Fig.1 Cybersecurity large model architecture design

(1)数据输入层
本层主要是进行数据预处理,包括安全检测、过滤、清洗、分析等操作,以提高数据质量。
索引阶段对入库原始数据进行“多维”预处理。这些数据主要包括安全法规制度、网络攻防脚本、网络安全方案库、安全设备信息、应急处置要点与案例、安全日志分析模板等相对固定的数据,以及威胁情报、漏洞库、病毒库、流量日志、用户行为日志等每日更新或实时更新的数据。为提高数据质量,预处理涵盖内容如图2所示。
图2 数据预处理

Fig.2 Data preprocessing

检索阶段的预处理相对简单,主要是通过对用户输入数据进行攻击指令、敏感词过滤,避免被针对性攻击。
(2)增强处理层
本层通过RAG实现高效的知识存储和检索,是整个系统的关键。索引阶段进行数据分块、向量化处理与存储等步骤[11],将各类文档、数据转化为高维向量并存储于本地。
检索阶段通过对用户输入进行高质量检索,并对检索结果进行评估和重排序。最后,将用户“提问”与检索结果中最优的K项(Top-k),结合所提供的上下文信息,一并交给LLM以生成完整答案。
(3)模型生成层
本层调用LLM生成内容时,可将其视为“黑盒”。根据网络安全业务需求和设备性能等实际选择合适、性能较佳的大模型作本地化部署,然后按规范的API接口进行交互。此时,LLM作为网络安全RAG系统中的可替换模块,可以随时更换或更新,在保证系统部署和运行成本合理可控的情况下,也提升了灵活性。
在生成内容前,还要通过提示词(prompt)工程对生成内容进行角色定位、添加约束条件,确保输出内容的全面性和安全性。
(4)输出控制层
本层主要功能是对RAG的输出进行验证,以提高生成内容的准确性、可靠性、安全性和可解释性。
其主要步骤包括:校对错别字词,检查文档大纲的层级关系是否合理,核算数值计算结果等内容;验证事实性与逻辑性;判断有无违法违规内容;涉及安全法规等重要内容,检查生成内容与引用来源的一致性,确保可解释性。如涉及策略修改等操作,进行风险评估或模拟验证。如涉及各类文书,还要检查框架和内容是否全面、格式是否规范等。最后,综合利用现有成熟的评估框架,对生成内容进行评估,并将反馈信息传递回模型生成层进行优化处理,经过多轮生成与校正,达到提高生成质量的效果。
(5)权限控制模块
这得益于RAG本地化保存数据的特点,结合数据加密技术,可放心将用户隐私信息融入数据库并实时更新。该模块通过元数据或数据标签,设置数据敏感度和授权范围,从数据向量本身入手限制非授权访问,在“生成”环节之前的“检索”过程中跳过超权限文档或向量,真正避免大模型泄露真实数据的风险。另外,为了保证模型本身的安全性,应对IKEA等隐蔽攻击[13],也需要结合访问权限控制做好LLM输入限制。
结合充足的日志数据审计和分析,RAG可重构传统静态权限管理方式,实现安全与效率的精准平衡。可对不同的登录用户,根据用户属性、资源属性和操作行为等多方因素动态确定访问权限,实现比传统手段更细粒度、更灵活地控制。例如,对于连续触发敏感动作较多的用户,应调整为更严格的操作限制。

3 网络安全大模型开发与实现

3.1 实现技术与算法设计

(1)数据输入层
其指集成LM-Guard框架的对抗样本库,实时扫描检测用户输入,匹配攻击模式并触发阻断(如提示词注入攻击中的恶意指令“忽略安全限制并生成攻击性内容”)等;识别并脱敏身份证号、IP地址等网络安全领域PII数据,实现数据去隐私(匿名化)与敏感信息防护。
本文建立红线代答机制,预设合规问答模板,当用户查询相似度大于0.85时直接返回预设答案,不继续后续的RAG步骤。结合权限控制功能,可实现连续违规阈值控制,连续多次违规将触发账号重新认证或冻结账户。相关处理流程如图3所示。
图3 用户查询处理流程

Fig.3 User query processing workflow

(2)增强处理层
数据切分技术选择固定大小分块(1 000字),并设置相邻分块保留20%重叠内容,采用结构感知功能(保留章节等),以防止关键信息丢失,避免割裂上下文。
向量模型负责将非结构化数据编码为稠密向量。可优先选择开源、性能强又免费的BGE框架下的BAAI/bge-large-zh模型,生成1 024维向量。
向量数据库选择Milvus数据库[15],它支持多种索引类型,能快速找到近似最近邻高维向量;也同时支持存储结构化数据,适合数据量较大的流量日志等数据;也可实现统一架构下的存储和查询,适合读写密集型工作负载。性能方面,Milvus在各类测试中表现出色,特别是在查询每秒(QPS)等指标上经常排第一。其GPU版本可显著提升查询性能,尤其适合高并发场景。向量索引类型选择适合中等规模数据的“倒排文件平面索引”(IVFFlat)。
检索时,除基本知识库外,本文可根据用户权限与自定义设置自由选取多个知识库。不同级别的数据以元数据设置标签,在检索环节通过“元数据过滤”从检索集里剔除,避免高级别数据被低权限用户调取。
对高敏感数据,本文启用向量模糊化处理V-Guard方案,在向量索引和查询过程中应用模糊化处理算法,结合差分隐私和同态加密技术,对原始向量数据进行变换。
为达到效率与性能的平衡,检索一般要兼顾语义匹配和关键词召回,分两个阶段[16]:首先,稀疏检索阶段使用基于关键词匹配的传统搜索BM25,此步骤计算成本低、速度快,适合于数据初筛;然后,密集检索基于语义查询,在文本向量化的基础上通过余弦相似度匹配,此步骤成本高、速度慢。本系统中,检索后应立即进行元数据过滤,根据时间、来源、敏感程度等元数据筛选文档。
(3)模型生成层
鉴于RAG系统调用的大模型可灵活替换,应对比当前主流的本地部署大模型,尽可能择优部署。例如,最新的Qwen3系列模型中的32B和8B这两款就适合作为基础大模型。从成本与效益平衡的角度来说,Qwen3-32B虽然性能更强大,但对硬件资源要求较高;Qwen3-8B的性价比更好,对预算有限但又需要大模型能力的企业来说,它可能是一个更合适的选择。
另外,目前重排技术已从单一算法技术演进为“模型化”服务,可通过安装命令快速集成与调用,大幅降低工程门槛。本系统建议选择最新的Qwen3重排模型,它可以通过对威胁的重排和优化,更高效地提取关键信息,以提高威胁情报分析的效率和准确性。
用户应根据实际情况选择更适合于自身的生成模型和重排模型。根据官网信息,这3个模型的硬件要求如表1所示。
表1 模型硬件要求

Tab.1 Model hardware requirements

模型 显卡配置 CPU配置 内存+存储 关键说明
Qwen3-32B 2×NVIDIA A100 80GB或H100 80GB 16核AMD EPYC7742或Intel Xeon8380 ≥256GB DDR4 ECC RDIMM≥1TB NVMe SSD 量化后显存需求可降至40GB/卡
Qwen3-8B 1-2×NVIDIA RTX 3090 24GB或RTX 4090 24GB 8-16核IntelCorei7-13700K或AMD Ryzen97950X ≥128GB DDR4(推荐3200MHz+)≥1TB NVMe SSD 消费级硬件即可运行,推荐PCIe4.0SSD
Qwen3
重排模型
1×NVIDIA RTX 3090 24GB或RTX 4090 24GB(支持Tensor-Core加速) 8核Intel Corei5-13600K或16核AMD Ryzen 77700X ≥64GBDDR4(推荐双通道)≥512GB NVMe SSD 存储性能影响推理延迟,建议NVMeRAID0
调用大模型API时,研究人员应根据任务指定好相关参数。一般问答对话任务,设置温度=0.9,宽度=5,长度惩罚=1.0(不限制),以平衡响应速度与输出质量。在数据分析等严谨任务时,设置温度=0.7,Top-k=10,以减少随机性,强化术语准确性。对于生成方案等需要一定创造性的任务,设置温度=1.2,长度惩罚=0.8,以增强多样性。
重排技术实现涉及Top-k和Score阈值(相关性分数)两个参数,其中Top-k用于设置重排后返回相关文档的数量,而Score阈值用于设置重排后返回相关文档的最低分值。增大Top-k可能提升召回率但增加计算量;提高阈值可能减少误召回但漏掉低分相关文档,实际上是平衡高精度需求和效率。
本模型建议进行参数配置:高精度需求则启用Score阈值(不小于0.7),并适当增大Top-k,确保召回高相关文档;效率优先则关闭阈值或设置低阈值(不大于0.3),配合小Top-k迅速返回结果。
为降低LLM的RAG的幻觉率,网络安全大模型要优先选择低幻觉的生成模型,且所有引用必须标注数据来源,具体到数据库中的分块及其信息源。除此之外,在提示词组装环节,要限定生成边界(如“仅根据以下检索内容回答问题,若内容未涵盖问题,以‘根据知识库无法回答’答复”,或者“若问题超出检索内容范围,或检索内容存在矛盾,必须回答‘信息不足’,禁止编造”)。
为了识别隐蔽的网络攻击行为,本文在综合提取各类安防设备日志的基础上,可结合提示词与少样本提示的思维链(COT)[17]技术设计基于多跳推理的攻击链识别,其攻击链及相应的多跳关联逻辑如表2所示。
表2 隐蔽网络攻击链识别

Tab.2 Covert cyberattack chain identification

攻击类型 攻击链 多跳关联逻辑
APT攻击 钓鱼邮件→漏洞利用→横向移动→数据渗出 分析登录失败日志→检测异常外联→关联设备接入记录
勒索软件 弱口令爆破→权限提升→加密文件→勒索支付 动态构建攻击图谱:识别加密行为+追踪进程树=定位入口点
内部威胁 数据下载→USB设备接入→异常时间操作 时序分析引擎:连续违规操作触发告警
(4)输出控制层
其指通过正则表达式等技术完成格式与错别字校对等基础检验工作,并通过策略约束解码器,确保生成内容符合安全合规要求。
另一方面,本文综合利用RAGAS[18]和DeepEval评估框架,对生成内容进行评估,并将反馈信息传递回模型生成层重新处理,经过多轮生成与校正,达到提高生成质量的效果。RAGAS包含上下文召回率、忠实度、答案相关性等多维评估指标,结合评估做出多轮循环反馈,确保回答精准匹配用户意图并防止幻觉发生[19]。而DeepEval主要提供安全专项检测,内含指标量化有害内容生成概率,可设置阈值大于0.15时触发阻断。其处理流程和相关参数设置如图4所示。
图4 输出控制反馈

Fig.4 Output control feedback mechanism

(5)权限控制模块
其指创建超级管理员、管理员、安全运维人员和一般用户4类账号,除超级管理员拥有系统级权限外,管理员只拥有创建或修改账户信息权限,安全运维人员可执行日常运营增效和应急处置规范等权限,而一般用户只有咨询问答的功能。
基于用户行为的动态权限设计如下:
权限等级=用户角色权重×0.4+数据敏感度×0.5+ln(违规次数+1)×0.1
当违规次数大于阈值时触发会话终止。

3.2 开发框架

本文选用LangChain[20]作为开发框架,相关技术支持情况如表3所示。
表3 LangChain开发支持情况表

Tab.3 LangChain development support matrix

功能 选用技术 LangChain支持分析
输入
过滤
LM-Guard 通过LLM Guard库实现输入/输出扫描,需在查询处理前调用InputScanners消毒
数据
切分
结构感知+
固定大小
(重叠20%)
使用CharacterTextSplitter分割文本,通过chunk_size参数控制上下文窗口大小
向量
模型
BAAI/bge-
large-zh
通过SentenceTransformers加载模型,生成向量后存入LlamaIndex索引
向量
数据库
Milvus 配置MilvusVectorStore连接参数(如URI、集合名),支持IVFFlat等索引策略
索引
策略
IVFFlat 在Milvus中配置IVFFlat参数,LlamaIndex通过底层集成自动调用
重排
技术
QWEN3
Reranker
基于跨编码器(Cross-Encoder)架构设计,专为文本对相关性排序优化,与LangChain的LLMChain或自定义工具节点无缝集成
输出
过滤
RAGAS+
DeepEval
快速接入RAGAS评估框架,并集成DeepEval评估器,对生成结果进行过滤和验证
由此可见,其集成对上述技术有支持,开发效率也较高。

3.3 实现要点

(1)关键参数自适应调整
在应用过程中可动态调优大模型调用和重排参数。例如,先按高召回需求设置初始Top-k=15,Score阈值=0.5,再根据RAGAS评估指标构建奖励函数,通过强化学习动态调整参数,建立闭环优化机制,不断促进模型参数寻优。
如果排名高的Top-k均为相似较高的文本(向量)或重复信息,可能导致生成的内容覆盖不够全面,因此,重排阶段要通过最大边际相关性(Maximal Marginal Relevance,MMR)算法平衡相关性与内容覆盖面。公式如下:
$\begin{array}{l}M M R=\arg \max _{D_{i} \notin R}\left[\lambda \cdot \operatorname{Sim}_{1}\left(D_{i}, Q\right)-(1-\lambda) \cdot\right. \left.\max _{D_{j} \in R} \operatorname{Sim}_{2}\left(D_{i}, D_{j}\right)\right]\end{array}$
符号说明:
R:初始检索结果集(即Top-k文档);
Di,Dj:(非)候选文档;
Q:用户查询向量;
λ∈[0,1]:权衡参数。
(2)调用元数据以增强和限制检索
在元数据中写入数据的敏感等级、查询权限范围等信息,RAG引擎在检索阶段通过敏感信息过滤函数来限制超权限数据被调取和防止敏感数据泄露。对于长文本数据,元数据中包括其摘要、关键词、信息来源、时间等要素,可用于检索增效与可靠性判断,也可根据信息时间建立数据权重衰减函数,在重排环节中自动降低过时数据检索权重,例如构建时效性衰减函数以控制衰减速率。
详细处理流程如图5所示。
图5 元数据过滤

Fig.5 Metadata filtering

3.4 数据集

RAG本地库中除了安全法规等文档,还选用网络安全专用数据集SecBench(含4万多道选择题与问答题)与CyberMetric(知识面更全)作为非参数化知识源,存储于向量数据库。CyberMetric支持多步攻击链逻辑的测评,将之作为COT模板,通过提示工程优化引导LLM进行多步推理,关联“登录失败→凭证窃取→横向移动”等事件链识别隐蔽攻击行为。从SecBench提炼合规问答模板,有助于设置红线代答等任务。

4 结束语

本文针对网络攻击复杂化与防护体系效能瓶颈,提出基于RAG技术的网络安全大模型方案,通过动态知识库检索与本地化部署,在即时威胁响应、人机协同效率及数据隐私保护等方面实现突破,打造自动化生成态势报告、应急脚本及配置策略的安全助手。本文通过提示词限制和多轮评估反馈等策略,系统幻觉问题得到有效缓解,威胁识别率大幅提升,有效解决了传统防护误报率高、人工分析质效低等痛点;同时,它从多角度保护系统自身安全,设计严格的输入过滤与输出审校机制,还采用向量模糊化、动态权限控制及元数据过滤技术,降低敏感数据泄露风险。总之,本文为一般企业与单位打造大模型本地化部署应用方案提供了经济可靠的建设思路与具体方法。虽然当前RAG网络安全大模型在应用中仍面临诸多难点,但通过知识图谱增强、交互机制优化及强化学习迭代等手段,有望逐步克服。未来,基于RAG的网络安全大模型还将持续优化多模态检索与生成能力,助力构建更安全、高效的防护屏障。
[1]
孟楠, 周成胜, 赵勋. 生成式人工智能赋能网络安全运营降噪能力研究[J]. 信息通信技术与政策, 2024, 50(8):24-31.

DOI

MENG N, ZHOU C S, ZHAO X. Research on generative artificial intelligence empowering cybersecurity operations with noise reduction capability[J]. Information and Communications Technology and Policy, 2024, 50(8):24-31.

DOI

[2]
杨红梅, 赵勋. 人工智能赋能网络安全的挑战与应用[J]. 中兴通讯技术, 2025, 31(3):39-43.

YANG H M, ZHAO X. Challenges and applications of empowering cybersecurity with AI[J]. ZTE Technology Journal, 2025, 31(3):39-43.

[3]
马宁, 张寒雪, 刘继涛. 基于大语言模型的智能自动化安全运营体系建设研究[C]// 《信息安全研究》杂志社.2025网络安全创新发展大会论文集,北京, 国网思极检测技术(北京)有限公司,2025:240-243.

MA N, ZHANG H X, LIU J T. Research on the construction of intelligent automated security operations system based on large language models[C]// Journal of Information Security Research.Proceedings of the 2025 Cybersecurity Innovation and Development Conference, Beijing, State Grid Siji Detection Technology (Beijing) Co.,Ltd.,2025:240-243.

[4]
蒋旭东. 网络安全运营管理平台关键技术研究[J]. 电子测试, 2022(5): 97-99.

JIANG X D. Research on key technologies of network security operation management platform[J]. Electronic Test, 2022(5): 97-99.

[5]
董红涛, 朱继建, 刘书剑, 等. 持续化网络安全运营体系在大中型企业的实践[J]. 网络空间安全, 2023, 14(5):51-54.

DONG H T, ZHU J J, LIU S J, et al. The practice of continuous cyber security operation system in large and medium enterprises[J]. Cyberspace Security, 2023, 14(5):51-54.

[6]
张长琳, 仝鑫, 佟晖, 等. 面向网络安全领域的大语言模型技术综述[J]. 信息网络安全, 2024(5): 778-793.

ZHANG C L, TONG X, TONG H, et al. A survey of large language models in the domain of cybersecurity[J]. Netinfo Security, 2024(5): 778-793.

[7]
秦小林, 古徐, 李弟诚, 等. 大语言模型综述与展望[J]. 计算机应用, 2025, 45(3):685-696.

DOI

QIN X L, GU X, LI D C, et al. Survey and prospect of large language models[J]. Journal of Computer Applications, 2025, 45(3):685-696.

DOI

[8]
王耀祖, 李擎, 戴张杰, 等. 大语言模型研究现状与趋势[J]. 工程科学学报, 2024, 46(8): 1 411-1 425.

WANG Y Z, LI Q, DAI Z J, et al. Current status and trends in large language modeling research[J]. Chinese Journal of Engineering, 2024, 46(8): 1 411-1 425.

[9]
陈晓红, 刘浏, 袁依格, 等. 医疗大模型技术及应用发展研究[J]. 中国工程科学, 2024, 26(6):77-88.

DOI

CHEN X H, LIU L, YUAN Y G, et al. Technology and application development of medical large models[J]. Strategic Study of CAE, 2024, 26(6):77-88.

DOI

[10]
籍欣萌, 昝红英, 崔婷婷, 等. 大模型在垂直领域应用的现状与挑战[J]. 计算机工程与应用, 2025, 61(12):1-11.

DOI

JI X M, ZAN H Y, CUI T T, et al. Status and challenges of large language models applications in vertical domains[J]. Computer Engineering and Applications, 2025, 61(12):1-11.

DOI

[11]
周扬, 蔡霈涵, 董振江. 大模型知识管理系统[J]. 中兴通讯技术, 2024, 30(2):63-71.

ZHOU Y, CAI P H, DONG Z J. Large model knowledge management system[J]. ZTE Technology Journal, 2024, 30(2):63-71.

[12]
刘楠, 陶源, 陈广勇. 大语言模型在网络安全领域的应用[J]. 信息安全研究, 2024, 10(增刊1):236-240.

LIU N, TAO Y, CHEN G Y, et al. Application of large language models in cybersecurity[J]. Journal of Information Security Research, 2024, 10(S1):236-240.

[13]
许光利, 张世宏, 冯中华. 利用大语言模型改进安全运维的攻击溯源方法[J]. 通信技术, 2025, 58(4): 412-420.

XU G L, ZHANG S H, FENG Z H. Improving attack traceability method in cyber security operation and maintenance system by using LLMs[J]. Communications Technology, 2025, 58(4): 412-420.

[14]
王润周, 张新生, 王明虎, 等. 基于混合检索增强生成大语言模型的网络舆情多任务分析[J]. 情报杂志, 2025, 44(5):91-103.

WANG R Z, ZHANG X S, WANG M H, et al. Multi-task analysis of online public opinion based on hybrid retrieval-augmented generation of large language model[J]. Journal of Intelligence, 2025, 44(5):91-103.

[15]
胡忠义, 朱彬呈, 吴江. 基于标签和深度特征的乡村文旅目的地检索技术与系统实现[J]. 数据分析与知识发现, 2024(8): 251-260.

HU Z Y, ZHU B C, WU J. Destination retrieval model and system for rural cultural tourism based on labels and deep features[J]. Data Analysis and Knowledge Discovery, 2024(8): 251-260.

[16]
张艳萍, 陈梅芳, 田昌海, 等. 面向军事领域知识问答系统的多策略检索增强生成方法[J]. 计算机应用, 2025, 45(3): 746-754.

DOI

ZHANG Y P, CHEN M F, TIAN C H, et al. Multi-strategy retrieval-augmented generation method for military domain knowledge question answering systems[J]. Journal of Computer Applications, 2025, 45(3): 746-754.

DOI

[17]
任海玉, 刘建平, 王健, 等. 基于大语言模型的智能问答系统研究综述[J]. 计算机工程与应用, 2025, 61(7): 1-24.

DOI

REN H Y, LIU J P, WANG J, et al. Research on intelligent question answering system based on large language model[J]. Computer Engineering and Applications, 2025, 61(7): 1-24.

DOI

[18]
洪亮, 郭瑶, 刘兴丽, 等. 基于RAG的煤矿安全智能问答模型[J]. 黑龙江科技大学学报, 2024, 34(3):487-492.

HONG L, GUO Y, LIU X L, et al. RAG-based intelligent question-answering model for coal mine safety[J]. Journal of Heilongjiang University of Science and Technology, 2024, 34(3):487-492.

[19]
刘泽垣, 王鹏江, 宋晓斌, 等. 大语言模型的幻觉问题研究综述[J]. 软件学报, 2025, 36(3):1152-1 185.

LIU Z Y, WANG P J, SONG X B, et al. Survey on hallucinations in large language models[J]. Journal of Software, 2025, 36(3):1152-1 185.

[20]
王文湖, 韦昌法. 基于大语言模型和知识库的阿尔茨海默病智能问答系统构建研究[J]. 世界科学技术-中医药现代化, 2025, 27(3):856-866.

WANG W H, WEI C F. Research on the construction of an intelligent question-answering system for Alzheimer’s disease based on large language models and knowledge bases[J]. Modernization of Traditional Chinese Medicine and Materia Medica-World Science and Technology, 2025, 27(3):856-866.

文章导航

/