Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 积分商城 国际服务 IP管家助手 科技果 科技人才 商标交易 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 浙江大学梁秀波获国家专利权

浙江大学梁秀波获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉浙江大学申请的专利一种基于脉冲Transformer模型的图片描述方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116701696B

龙图腾网通过国家知识产权局官网在2026-01-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310682762.3,技术领域涉及:G06F16/583;该发明授权一种基于脉冲Transformer模型的图片描述方法是由梁秀波;张璇;王宏志设计研发完成,并于2023-06-09向国家知识产权局提交的专利申请。

一种基于脉冲Transformer模型的图片描述方法在说明书摘要公布了:本发明公开了一种基于脉冲Transformer模型的图片描述方法,其方案:首先设计一个更符合生物多样性的,具有可学习膜电位时间常数和电压阈值新型脉冲神经元PLMP,该神经元能够优化脉冲模型训练梯度消失的问题;利用PLMP神经元将Transformer中普通的自注意力机制改造为脉冲注意力机制;利用脉冲自注意力机制搭建一个脉冲Transformer用于图片描述模型训练;最终效得到一个适用于图片描述领域、节能的、可以生成高质量的图片描述的脉冲Transformer模型。

本发明授权一种基于脉冲Transformer模型的图片描述方法在权利要求书中公布了:1.一种基于脉冲Transformer模型的图片描述方法,其特征在于,包括以下步骤: 1设计一种脉冲神经元PLMP,每个PLMP单元包含多个具有不同膜电位时间常数和电压阈值的平行LIF单元; 2基于PLMP单元设计实现脉冲自注意力机制; 所述步骤2中,通过脉冲神经元PLMP将Query、Key和Value转换成脉冲,公式如下: Qi=PLMPBNXWiQ Ki=PLMPBNXWiK Vi=PLMPBNXWiV headi=QiKiTVi S'=Concathead1,...,headn SpikingMSAQ,K,V=PLMPBNLinearS' X是自注意力机制的输入,是可学习的线性矩阵;i=1,2,...,h,h代表注意力机制有h个头;Vi表示第i个注意力头的输入特征的向量,Qi、Ki是第i个注意力头计算注意力权重的特征向量;BN是BatchNormalization批归一化操作;headi代表第i个注意力头的输出;S′是多头就是把h个注意力头的输出拼起来的结果;SpikingMSA是改造后的脉冲自注意力机制; 3构建Transformer模型;所述Transformer模型采用编码器-解码器框架实现,其中编码器由一个SwinTransformer和N个细化编码器块组成,解码器由N个解码器块组成; 4基于PLMP单元和脉冲自注意力机制将步骤3中的Transformer模型改为脉冲Transformer模型; 5获取图片描述领域的数据集,将数据集分为训练集、验证集和测试集,所述训练集用于训练脉冲Transformer模型;所述验证集用于选择最优脉冲Transformer模型;将所述测试集输入最优脉冲Transformer模型,输出图片描述。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江大学,其通讯地址为:310058 浙江省杭州市西湖区余杭塘路866号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。