中国人民解放军国防科技大学陈立前获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国人民解放军国防科技大学申请的专利基于依赖注意力的语句级漏洞定位方法、系统及存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119127662B 。
龙图腾网通过国家知识产权局官网在2025-11-07发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410984507.9,技术领域涉及:G06F21/57;该发明授权基于依赖注意力的语句级漏洞定位方法、系统及存储介质是由陈立前;翁程;秦意浩;林博;刘培;易昕;毛晓光;李姗姗;王尚文设计研发完成,并于2024-07-22向国家知识产权局提交的专利申请。
本基于依赖注意力的语句级漏洞定位方法、系统及存储介质在说明书摘要公布了:本发明公开了一种基于依赖注意力的语句级漏洞定位方法、系统及存储介质,该方法包括:步骤S1:训练数据预处理:对大量的漏洞数据进行预处理,获取满足模型要求的训练数据;步骤S2:模型训练:使用步骤S1获得的训练数据对模型进行训练,获取神经网络模型;步骤S3:漏洞语句定位:对于一个给定的缺陷函数,使用训练好的模型,来预测出具体的漏洞语句行号。该系统和存储介质均是用来执行上述方法。本发明具有原理简单、能够准确定位漏洞程序中的缺陷语句、能够提供更细粒度定位结果等优点。
本发明授权基于依赖注意力的语句级漏洞定位方法、系统及存储介质在权利要求书中公布了:1.一种基于依赖注意力的语句级漏洞定位方法,其特征在于,包括: 步骤S1:训练数据预处理:对大量的漏洞数据进行预处理,获取满足模型要求的训练数据;对于训练数据集中的每个函数,使用Joern程序分析工具来提取函数的程序依赖图; 步骤S2:模型训练:将所述函数和对应的程序依赖图作为训练数据,即使用步骤S1获得的训练数据对模型进行训练,获取神经网络模型;具体为:步骤S21:使用预训练模型得到函数中每个语句的嵌入向量,其中表示每个语句的嵌入向量; 步骤S22:在得到每个语句的嵌入向量,使用注意力掩盖矩阵和Transformer编码器提取语句之间的数据控制依赖关系,计算得到基于依赖的语句表示向量,其中基于依赖的语句表示向量;计算基于依赖的语句表示向量的流程包括: 步骤S221:基于程序依赖图构建注意力掩盖矩阵;假定注意力掩盖矩阵大小为,如果两行语句之间存在数据控制依赖,注意力掩盖矩阵对应的元素大小为负无穷,如果两行语句之间不存在数据控制依赖,注意力掩盖矩阵对应的元素大小为0; 步骤S222:使用注意力掩盖矩阵和Transformer编码器提取语句之间的数据控制依赖关系,计算得到基于依赖的语句表示向量; 步骤S23:在得到基于依赖信息的语句表示向量,使用Transformer编码器得到函数表示向量; 步骤S24:模型训练;使用交叉熵损失函数对模型进行训练; 步骤S3:漏洞语句定位:对于一个给定的缺陷函数,使用步骤S2中训练好的模型,来预测出具体的漏洞语句行号。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国人民解放军国防科技大学,其通讯地址为:410073 湖南省长沙市开福区砚瓦池正街47号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励