东南大学李志斌获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉东南大学申请的专利一种3D交通场景、车辆和无人机的信息实时交互方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118298627B 。
龙图腾网通过国家知识产权局官网在2025-09-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410365365.8,技术领域涉及:G06V20/17;该发明授权一种3D交通场景、车辆和无人机的信息实时交互方法是由李志斌;钱泽昊设计研发完成,并于2024-03-28向国家知识产权局提交的专利申请。
本一种3D交通场景、车辆和无人机的信息实时交互方法在说明书摘要公布了:本发明公开了一种3D交通场景、车辆和无人机的信息实时交互方法,采用加权路网算法生成交通路网,进行实时半自动提取与识别,利用优化的稀疏区域卷积神经网络算法,识别3D场景标志并采集数据,再通过多无人机协同配合,彼此辅助,全方位获取场景内的信息并传递给车辆,实现3D交通场景、车辆和无人机之间信息实时交互。本发明在实现3D交通场景、车辆和无人机之间信息实时交互方面具有较为完整的研究切入点,为最终实现3D交通场景、车辆和无人机之间信息实时交互提供系统的理论借鉴和指导。
本发明授权一种3D交通场景、车辆和无人机的信息实时交互方法在权利要求书中公布了:1.一种3D交通场景、车辆和无人机的信息实时交互方法,其特征在于,所述信息实时交互方法包括以下步骤: 在3D交通场景中利用优化的PCNN算法分析路网权重,依照不同权重计算生成对应的交通路网; 在车辆上安装高分辨率遥感装置,采用高分辨率遥感装置在复杂仿真环境中对路网进行半自动提取与实时识别; 基于优化的稀疏区域卷积神经网络算法,在复杂的交通仿真环境中,识别交通指示牌标志,作为行驶信息提供给车辆;具体地,判断识别到的交通指示牌标志是否为增强图像,如果是,根据预设阈值计算增强图像中检测对象的类别,根据不同图像上相同检测对象的平均坐标计算最终边界框坐标与图像坐标位置,将最终边界框坐标与图像坐标位置作为行驶信息提供给车辆; 通过多无人机协同配合,依次对数据采集、无人机轨迹部署和任务时间三个方面采取优化措施,采用无人机全方位实时获取3D交通场景中的信息并传递给车辆; 识别交通指示牌标志,作为行驶信息提供给车辆的过程包括以下步骤: 结合路面标志之间的距离、重叠率、比例和惩罚因子,构建损失函数对检测函数进行边界回归: 式中,χtaloss为稀疏区域卷积神经网络中目标框的损失函数;χ'exloss为稀疏区域卷积神经网络中检测框的损失值;为目标框与检测框在识别传输第s个交通标志信息时的惩罚参数;为目标框与检测框在识别传输区域交通标志信息时的最大惩罚参数;ο为在目标框与检测框中心点之间的距离;a为在目标框与检测框的额定边界参数值;ate为目标框与检测框之间边框的对角线距离;b为覆盖目标框与检测框的最小封闭对角线长度;β为权衡参数,用于衡量纵横比一致性的参数;为目标框与检测框可转动角度与高度的参数;ωte为目标框和检测框可转动角度的惩罚参数;hte为目标框和检测框高度的惩罚参数;ω为目标框和检测框可转动角度;h为目标框和检测框高度;π为圆周率; 在目标框和检测框之间增设侯选框,用于存储损失函数造成的遗漏交通信息,候选区通过提取交通场景中的路网将遗漏交通信息反馈给外部终端,以生成对象特征并帮助车辆重新识别匹配交通标志,其对应表达式如下: 式中,为每个检测对象归一化的所有对的单独损失和;为所有检测对象归一化的所有对的最终损失和;κd为目标框中心与检测框中心之间的距离;κt为目标框的对角线距离;κc为检测框的对角线距离;Mt为目标框中心与识别到的交通标志的横向距离;Nt为目标框中心与识别到的交通标志的纵向距离;Mc为检测框中心与识别到的交通标志的横向距离;Nc为检测框中心与识别到的交通标志的纵向距离;RNIC为路网信息反馈系数;为候选框焦点损失参数;为候选框的L1损失参数;为ciou回归损失参数值;Pcls为焦点损失参数的系数;PL1为候选框的L1损失参数的系数;Pciou为ciou回归损失参数的系数;αi′为第i'个检测对象损失系数;为第i'个检测对象归一化的所有对的单独损失和;m为检测对象总数; 使用投票机制对目标框、检测框和侯选框的输出结果进行判断,确定输入图像是否包含检测对象且该对象是否为增强图像,模型对应表达式为: 式中,PI表示确定输入图像是否包含检测对象且该对象是否为增强图像,若为增强图像,则PI取值为1,否则PI取值为0;ψi为检测到的第i个增强图像;Τ表示所提出的框架中使用的增强方法;A为增强图像总数; 对投票机制的输出结果进行综合统计,如果增强图像包含对象就记为1,否则记为0,最终结果取决于每个增强样本图像的统计结果,接着根据预设阈值计算增强图像中检测到的对象的类别,进而根据不同图像上相同检测对象的平均坐标计算最终边界框坐标与图像坐标位置,相关模型对应表达式如下: CI=Argmaxfc,c∈C,CI≥threshold, 式中,CI为对象类别;C为检测模型的总类别;fc用于判断检测到的对象类别是否大于预设阈值并计算增强图像;i为横坐标下的第i个图像;j为纵坐标下的第j个图像;Mmax为增强图像在横坐标下的最大值;Mave为增强图像在横坐标下的均值;Bmax为增强图像在纵坐标下的最大值;Bave为增强图像在纵坐标下的均值;Enij为横坐标下的第i个图像和纵坐标下的第j个图像的综合图像值;Enave增强图像在横纵坐标下总体均值;Sij表示同一对象在不同横纵坐标图像上的坐标位置;c为检测到的图像;threshold为图像阈值;CO为同一对象在不同图像上的坐标位置的总体平均值; 对数据采集、无人机轨迹部署和任务时间三个方面采取优化措施的过程包括以下步骤: 基于数据采集和传输功率两个方面对无人机采集的数据进行调度优化,相关模型对应表达式如下: 其中,Dt为数据优化调度模型;Pm为采集到的数据集合,表示P集合中第m个数据组;Xdk[Pm]为P集合中第m个数据组中第k个数据的x坐标值;Ydk[Pm]为P集合中第m个数据的中第k个数据的y坐标值;Zdk[Pm]为P集合中第m个数据的中第k个数据的z坐标值;σ2为数据优化调度前的模型值;p[n]为第n个无人机的数据传输功率;h[n]为第n个无人机距离车辆设备的垂直高度;p[r]为除第n个无人机之外第r个无人机的数据传输功率;h[r]除第n个无人机之外第r个无人机距离车辆设备的垂直高度;Q为当前无人机队伍中无人机的总数;log2p为传输功率固定值;p为无人机的数据传输功率;K为无人机的总体数量; 基于连续凸优化技术,对无人机轨迹进行部署,使得各个无人机之间互相配合,互相辅助,相关模型对应表达式如下: 式中,CoXt[n]为经由连续凸优化技术后第n个无人机在时间t时x坐标下的轨迹数值;Xdot[n]为第n个无人机在时间t时x坐标下的轨迹偏移量;Wrft[n]为第n个无人机在时间t时的风阻影响值;u为无人机能耗值;β0为风阻影响系数;Dist 2为在时间t时3D场景中车辆离初始位置的距离值;Xqt,u[n]为在时间t、能耗u时第n个无人机x坐标下的轨迹数值;VeXt[n]为在时间t时第n个无人机x坐标下与3D场景中行驶车辆之间的距离值;为无人机和车辆之间的影响系数值,范围在0到1之间;log2e为能耗固定值;Hxt[n]为在时间t时第n个无人机x坐标下离3D场景中行驶车辆初始位置的距离值;Tqt,u[n]为在时间t、能耗u时第n个无人机总体方位值;VeCt为在时间t时3D场景中车辆当前行驶的路程值;CoYt[n]为经由连续凸优化技术后第n个无人机在时间t时y坐标下的轨迹数值;Ydot[n]为第n个无人机在时间t时y坐标下的轨迹偏移量;Yqt,u[n]为在时间t、能耗u时第n个无人机y坐标下的轨迹数值;VeYt[n]为在时间t时第n个无人机y坐标下与3D场景中行驶车辆之间的距离值;Hyt[n]为在时间t时第n个无人机y坐标下离3D场景中行驶车辆初始位置的距离值;CoZt[n]为经由连续凸优化技术后第n个无人机在时间t时z坐标下的轨迹数值;Zdot[n]为第n个无人机在时间t时z坐标下的轨迹偏移量;Zqt,u[n]为在时间t、能耗u时第n个无人机z坐标下的轨迹数值;VeZt[n]为在时间t时第n个无人机z坐标下与3D场景中行驶车辆之间的距离值;Hzt[n]为时间t时第n个无人机z坐标下离3D场景中行驶车辆初始位置的距离值;L为无人机飞行的最长时间; 综合考虑无人机队伍飞行能耗、飞行速度、飞行距离因素,联合优化无人机完成任务时间,公式如下: 式中,JMT为优化后的无人机联合完成任务时间;δ为无人机固定飞行角度值;Su为在能耗u时无人机已经飞行的距离;vt,u在时间t、能耗u时无人机的速度;v0为无人机的初始速度;Vu,t[n]为在时间t、能耗u时第n个无人机的速度;Fecu{Vu,t[n]}为在在时间t、能耗u时第n个无人机的速度Vu,t[n]下的飞行能耗值;Pn为第n个无人机的功率值;为第n个无人机的转子叶片的叶尖速度;dis0为无人机队伍中心与3D场景中车辆之间的初始值;disu,t[n]为在时间t、能耗u时无人机队伍中心与3D场景中车辆之间的距离值;H[n]为第n个无人机总体方位值;Tqt,u[n]为在时间t、能耗u时第n个无人机总体方位值;VeCt为在时间t时3D场景中车辆当前行驶的路程值。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东南大学,其通讯地址为:210000 江苏省南京市玄武区四牌楼2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。