Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 哈尔滨工业大学;芜湖哈特机器人产业技术研究院有限公司赵立军获国家专利权

哈尔滨工业大学;芜湖哈特机器人产业技术研究院有限公司赵立军获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉哈尔滨工业大学;芜湖哈特机器人产业技术研究院有限公司申请的专利跨多种室内场景的视觉定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117058235B

龙图腾网通过国家知识产权局官网在2026-03-13发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311025048.3,技术领域涉及:G06T7/73;该发明授权跨多种室内场景的视觉定位方法是由赵立军;王珂;谢涛;杨淋淇;孙祺淏;李瑞峰;陶贤水设计研发完成,并于2023-08-15向国家知识产权局提交的专利申请。

跨多种室内场景的视觉定位方法在说明书摘要公布了:跨多种室内场景的视觉定位方法,解决了视觉定位场景坐标回归方法只能应用于特定场景的问题,属于视频图像拍摄视觉定位领域。本发明包括:在N个不同的场景中,采集数据,对采集的数据进行预处理;将场景中的RGB图像和深度图作为输入,将深度图中每个像素点所对应的场景坐标作为输出,搭建跨场景视觉定位网络,对跨场景视觉定位网络进行训练时,卷积层权重确定时采用自适应参数共享策略:根据待测的RGB图像和对应深度图像选择相应跨场景视觉定位网络的权值,再利用训练好的跨场景视觉定位网络对待测RGB图像进行预测,得到每个像素点的场景坐标,根据得到的场景坐标及对应深度图像中的像素坐标,计算相机位姿。

本发明授权跨多种室内场景的视觉定位方法在权利要求书中公布了:1.跨多种室内场景的视觉定位方法,其特征在于,所述方法包括: S1、在N个不同的场景中,进行采集数据,数据包括RGB图像、深度图、采集相机的位姿; S2、对S1中采集的数据进行预处理; S3、将场景中的RGB图像和深度图作为输入,将深度图中每个像素点所对应的场景坐标作为输出,搭建跨场景视觉定位网络,利用预处理后N个场景的RGB图像分别输入到跨场景视觉定位网络中进行训练,得到训练好的N个场景的跨场景视觉定位网络; 对跨场景视觉定位网络进行训练时,卷积层权重确定时采用自适应参数共享策略: 在正向传递中,确定第i个卷积层各个通道的可学习得分,表示第个通道的得分,,为输入的通道数,计算二值化后的得分参数: 其中,表示设置的阈值; 若为0,则继续判定相应通道内各个卷积核的参数是否共享,若为1,则判定相应通道内各个卷积核的参数为任务特定权值; 判定相应通道内各个卷积核的参数是否共享的方法: 确定算所述相应通道内各个卷积核的可学习得分,为卷积核的高,为卷积核的宽,表示位置j,k的得分,,,计算卷积核二值化后的得分参数,若为0,则通道内相应卷积核的参数为共享权值,若为1,则通道内相应卷积核的参数为任务特定权值; 将训练好的N个场景的跨场景视觉定位网络中的权值整合成一个跨场景视觉定位网络; S4、根据待测的RGB图像和对应深度图像选择相应跨场景视觉定位网络的权值,再利用跨场景视觉定位网络对待测RGB图像进行预测,得到每个像素点的场景坐标,根据得到的场景坐标及对应深度图像中的像素坐标,计算相机位姿。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人哈尔滨工业大学;芜湖哈特机器人产业技术研究院有限公司,其通讯地址为:150001 黑龙江省哈尔滨市南岗区西大直街92号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。