Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 东北大学张长胜获国家专利权

东北大学张长胜获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉东北大学申请的专利基于域泛化的股票形态相似性查询系统与方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116108379B

龙图腾网通过国家知识产权局官网在2026-02-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310116131.5,技术领域涉及:G06F18/241;该发明授权基于域泛化的股票形态相似性查询系统与方法是由张长胜;陆林;刘礼铭;张斌;刘席郡;张宸设计研发完成,并于2023-02-15向国家知识产权局提交的专利申请。

基于域泛化的股票形态相似性查询系统与方法在说明书摘要公布了:本发明提供一种基于域泛化的股票形态相似性查询系统与方法,涉及深度学习技术领域。本系统包括数据层、匹配模型层、分析层;本发明通过获取股票历史数据,对数据进行预处理;然后使用RReliefF算法进行特征选择进行数据分割;使用Lasso算法结合域泛化方法对模型进行训练;进行匹配相似股票数据,并得到结果分析进行反馈。本发明能够更准确地匹配相似股票数据,给用户提供更可靠的辅助结果。

本发明授权基于域泛化的股票形态相似性查询系统与方法在权利要求书中公布了:1.一种基于域泛化的股票形态相似性查询系统,其特征在于,包括数据层、匹配模型层、分析层; 所述数据层负责股票数据的处理工作,所述匹配模型层包括股票分类模型模块与股票分类模型训练模块,分别用于建立训练模型,以及对训练模型进行训练,并进行训练后模型的使用; 所述分析层包括分类结果分析模块与分类结果分析报告模块,分别用于对训练模型输出的股票分类结果进行分析,以及生成分析报告; 所述数据层具体包括股票数据模块、数据预处理模块、RReliefF特征选择模块以及数据分割模块,其中数据获取模块用于获取以及存储股票的历史数据;数据预处理模块对股票的历史数据进行预处理工作,RReliefF特征选择模块由于对预处理后的数据进行RReliefF特征选择;数据分割模块用于对数据进行分割; 所述的一种基于域泛化的股票形态相似性查询系统,用于实现一种基于域泛化的股票形态相似性查询方法,包括以下步骤: 步骤1:获取目标股票的历史数据用来进行循环神经网络的训练; 步骤2:对步骤1获取的股票历史数据进行预处理工作; 所述步骤2具体包括: 步骤2.1:对股票历史数据中的缺失值进行填补; 步骤2.2:去除或替换股票历史数据中的异常值; 步骤2.3:对经步骤2.2处理的数据进行训练集、验证集以及测试集的划分; 步骤2.4:对步骤2.3中的训练集、验证集以及测试集数据分别进行归一化操作,并且验证集以及测试集的标签数据并不进行归一化操作,同时验证集以及测试集归一化时每个特征使用的最大值与最小值均为训练集的最大值与最小值,进而优化之后循环神经网络的训练质量,归一化计算公式为: 其中yi为变量归一化后的值,xi为当前被归一化特征的变量,n表示当前特征拥有的变量数,i则代表第i个; 步骤3:使用过滤器特征选择算法RReliefF对步骤2中已经做过预处理的训练集数据进行特征选择,过滤影响循环神经网络精度的劣质特征; 所述步骤3具体包括: 步骤3.1:设上述经过归一化后的训练集为数据集D,样本抽取次数m,特征权重的阈值δ,原始特征个数N,不同分类权重NdC,不同属性权重NdA[A],不同分类amp;不同属性权重NdCamp;dA[A]; 步骤3.2:将NdC、NdA[A]、NdCamp;dA[A]以及所有特征的权重W[A]置0; 步骤3.3:在D中随机选择一个特征样本Ri; 步骤3.4:找到Ri的k个最近邻特征I1,I2,…,Ik; 步骤3.5:计算Ri与k个邻近特征的NdC,计算公式为: NdC=NdC+|fRi-fIi|*di,j 式中f.为分类函数; 每计算一次NdC都需要计算所有特征的NdA[A]与NdCamp;dA[A],计算公式分别为: NdA[A]=NdA[A]+diffA,Ri,Ij*di,j NdCamp;dA[A]=NdCamp;dA[A]+|fRi-fIi|*diffA,Ri,Ij*di,j 式中di,j为Ri与Ij两个特征的距离,计算公式如下: 式中k表示Ri有k个邻近特征; rankRi,Ij代表Ij在Ri的k个邻近特征序列中的距离排名,σ为自定义参数; diffA,Ri,Ij代表的是计算实例Ri与实例Ij属性之间的差值,式中A特指属性: d=|valueA,Ri-valueA,Ij|代表两个实例的属性值之间的距离,teq是两个属性值之间的最大距离并始终视为相等,tdiff是属性值之间的最小距离并始终视为不相等; 步骤3.6:重复步骤3.3到步骤3.5,共执行m次; 步骤3.7:计算所有特征的总权重,计算公式为: 步骤3.8:对W[A]进行排序,权重值越大代表特征越有利于学习模型的训练,排序后根据自行设定的需要保留的特征数量值来保留排名靠前的特征; 步骤3.9:返回最终选择的所有特征; 步骤4:使用贪心高斯分割算法对训练集数据进行数据分割工作,将训练集数据分割为数据差异最大的若干段; 所述步骤4具体包括: 步骤4.1:设训练集数据为多元时间序列该多元时间序列共有T个时间戳,每个时间戳都是n维的,设分割点数量为K,分割点集P为空,最小批次窗口大小为L; 步骤4.2:将训练集数据序列起始时间点数据下标与末尾时间点数据下标加入到P; 步骤4.3:P中的分割点划分后的数据段继续寻找能够将当前数据进一步分割的最优分割点,设b1与b2为第一段数据两端的分割点,在两端点之间寻找第一段数据的最优分割点,之后以此类推寻找到所有数据段的最优分割点,最优分割点评判公式为,即最大化下述maximize后的公式值: 式中λ为权衡参数,bi为P中现存分割点,logdet代表求矩阵行列对数的估计,Tr代表矩阵的迹,Si为第i段的经验协方差,Si计算公式为: 式中μi为当前数据段的经验均值,xt值为当前数据段内的数据向量; 步骤4.4:追加本轮的最优分割点到P; 步骤4.5:在追加一个分割点后,历史分割点便不一定处于最优位置,因此需要对P中非当前追加分割点进行位置调优,即调整历史分割点位置,直到所有分割点位置达到最优分割位置,调优过程的评判是否为最优的公式为上述评判公式; 步骤4.6:重复步骤4.1到步骤4.5,共执行K次,返回分割点集P; 步骤5:将分割后训练集数据与分割点传入到循环神经网络,然后使用嵌入式特征选择算法Lasso结合域泛化方法对循环神经网络进行训练; 所述步骤5具体包括: 步骤5.1:获取分割点集P与训练集数据; 步骤5.2:根据分割点对训练集数据进行批次划分; 步骤5.3:随机选择一个批次数据进行循环神经网络的训练; 步骤5.4:计算当前批次所有数据段之间的分布距离,计算方式为两两数据段间计算距离然后相加求均值,计算公式为: 式中λ为超参数,α为代表某两数据段间分布距离的重要性参数,N为分段数量,使用循环神经网络,V为循环神经网络层数,为最大均值差异距离,其中与分别为第i段与第j段数据在第t层循环神经网络的输出,计算公式具体如下: 式中hs与ht代指循环神经网络的输出,ns与nt代表hs与ht分别由ns与nt个多维向量组成,hsi与hsj分别为hs的第i个与第j个向量,hti与htj分别为ht的第i个与第j个向量; 式中k.为核函数,选用高斯核函数,其形式为: ||x-y||2为向量x与y的欧氏距离,σ为标准差; 步骤5.5:计算分类损失Lc,计算公式为: 式中mse.为均方误差,N为分段数; 步骤5.6:计算总损失函数; 所述总损失函数形式如下: Loss=Lmat+Ldis+λ||θ||1 式中Lmat为分类损失,Ldis为分布距离,θ为循环神经网络中的超参数,||.||1为L1正则表达式Lasso方法; 步骤5.7:损失函数计算完毕后即可开始循环神经网络当前批次的训练,且由于总损失函数由分类损失、分布距离以及Lasso特征选择算法共同组成,因此可以达到分类训练、域泛化与特征选择共同进行的目的; 步骤5.8:循环步骤5.3到步骤5.7,直到所有批次训练完成; 步骤5.9:循环步骤5.3到步骤5.8,直到循环神经网络的分类准确率已达到设定的阈值即为训练完成; 步骤6:分析循环神经网络的分类准确率,如果准确率低于自定义阈值则需要判断是否需要重新训练循环神经网络,即重新进行步骤3到步骤5,如果准确率大于等于自定义阈值,则将目标股票数据经过预处理后输入到已经训练好的循环神经网络中进行特征分类。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东北大学,其通讯地址为:110819 辽宁省沈阳市和平区文化路3号巷11号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。