燕山大学丁伟利获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉燕山大学申请的专利基于RGBD图像的起重机端到端运动轨迹预测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119660569B 。
龙图腾网通过国家知识产权局官网在2025-10-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411718289.0,技术领域涉及:B66C13/16;该发明授权基于RGBD图像的起重机端到端运动轨迹预测方法是由丁伟利;尚银瑞;华长春;王耀辉设计研发完成,并于2024-11-28向国家知识产权局提交的专利申请。
本基于RGBD图像的起重机端到端运动轨迹预测方法在说明书摘要公布了:本发明公开了基于RGBD图像的起重机端到端运动轨迹预测方法,属于智能控制领域,包括训练和预测两个阶段:训练时输入起重机作业时采集的驾驶室视角的RGB图像序列和深度图像序列以及操作端的运动控制指令,基于语义分割网络对RGB图像进行分割得到语义分割图,同时融合类别索引图和深度图,得到语义深度图;RLSTM‑Transformer双分支网络提取语义分割图和语义深度图的特征并预测运动控制命令。最小化预测值与真实值之间的偏差,训练上述神经网络模型,得到预测模型;预测时将RGB图像和深度图像输入训练好的语义RLSTM‑Transformer起重机端到端运动轨迹预测模型中,模型预测输出起重机的运动控制命令。
本发明授权基于RGBD图像的起重机端到端运动轨迹预测方法在权利要求书中公布了:1.一种基于RGBD图像的起重机端到端运动轨迹预测方法,其特征在于:包括训练和预测两个阶段,具体包括以下步骤: 步骤一:采集实验数据,通过RGBD相机获取起重机作业时驾驶室视角下的RGB图像和深度图像同时获取操作端的运动控制指令,操作端的运动控制指令包括:C1-上升、C2-下降、C3-增幅、C4-减幅、C5-左旋、C6-右旋、C7-前进、C8-后退、C9-抓取、C10-释放; 步骤二:基于语义分割模型对RGB图像进行分割,获得伪彩色图和类别索引图,将伪彩色图和RGB图以一定的透明度叠加,得到语义RGB图,同时融合类别索引图和深度图,融合单通道类别索引图,单通道深度图,第三个通道设置为空白,融合得到三通道语义深度图; 步骤三:通过优化模型单元RLSTM,建立Multi-RLSTM局部时空特征提取模型; 步骤四:将语义深度图像输入局部时空特征提取子网络,局部时空特征提取子网络利用CNN、Multi-RLSTM和多头注意力模块提取输入子图像序列的局部时序特征,并预测每个子序列的输出; 步骤五:将语义RGB图像输入全局时空特征提取子网络,全局时空特征提取子网络利用ResNet和Transformer提取图像序列的深层空间特征并建立全局依赖关系,并预测每个子序列的输出; 步骤六:最后通过加权融合网络融合两个分支的输出,得到模型最终的输出; Xlocal∈RN×d表示通过局部时空预测子网络预测的起重机运动状态,Xglobal∈RN×d表示通过全局时空预测子网络预测的起重机运动状态,这两个子网络的融合采用加权的方式,yfused=α·Xlocal+β·Xglobal,其中α,β是加权系数,表示表示对局部和长期预测结果的不同重视程度,最终融合后的预测结果yfused∈RN×d,d是起重机运动控制指令的总类别数,表示结合了局部和长期信息决策后的起重机运动控制指令预测; 步骤七:采集的操作端的运动控制指令作为图像的标签,通过最小化预测值与真实值之间的偏差,优化损失函数,训练上述神经网络模型,得到预测模型; 步骤八:在线执行阶段,获取起重机作业场景下驾驶室视角下RGBD相机采集的RGB图像和深度图像,将图像输入训练好的语义RLSTM-Transformer起重机端到端运动轨迹预测模型,通过模型预测即可得到所需的起重机运动控制指令。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人燕山大学,其通讯地址为:066004 河北省秦皇岛市海港区河北大街438号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励