Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 杭州电子科技大学蔡哲飞获国家专利权

杭州电子科技大学蔡哲飞获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉杭州电子科技大学申请的专利一种基于视觉计算多元连接模型的显著性轮廓感知方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114140482B

龙图腾网通过国家知识产权局官网在2025-08-22发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111301432.2,技术领域涉及:G06T7/13;该发明授权一种基于视觉计算多元连接模型的显著性轮廓感知方法是由蔡哲飞;范影乐;武薇设计研发完成,并于2021-11-04向国家知识产权局提交的专利申请。

一种基于视觉计算多元连接模型的显著性轮廓感知方法在说明书摘要公布了:本发明公开了一种基于视觉计算多元连接模型的显著性轮廓感知方法,构建具有多元连接特性的视觉计算模型。在LGN前馈连接上,模拟LGN神经元稀疏编码特性,并加入权重因子,实现纹理初步抑制,获得轮廓的初级感知结果;在初级视皮层水平连接上,模拟初级视皮层风车样结构感受野,基于神经元间距离与最佳朝向夹角,调节中心神经元的放电强弱;在高级视皮层反馈连接上,模拟高级视皮层的色调感知特性,构建包含环绕抑制的三通道色调感知模型,获得高级视皮层对图像目标或结构的响应。本发明通过多元连接特性的视觉计算模型的构建,使得所获取轮廓能够在抑制纹理噪声的同时,有效突出主体目标。

本发明授权一种基于视觉计算多元连接模型的显著性轮廓感知方法在权利要求书中公布了:1.一种基于视觉计算多元连接模型的显著性轮廓感知方法,其特征在于,该方法具体包括以下步骤: 步骤1、在LGN前馈连接上,构建基于感受野统计特性的稀疏度量模型,获得经LGN作用后的稀疏性轮廓具体为: 构建一个二维神经元阵列NeuronsLGN,阵列NeuronsLGN的行列数与外界输入图像I相同,行列数分别记为M,N,上标LGN表示在LGN前馈连接上的模拟,下同;其中阵列NeuronsLGN中行列坐标为i,j的单个神经元模型如式1所示; 式中,τ表示神经元的膜电位常数,为阵列NeuronsLGN中的全局参数,即阵列NeuronsLGN中所有神经元模型的τ值均相同;表示位于阵列NeuronsLGN中行列坐标为i,j的神经元膜电位;Iij表示外界输入图像I中行列坐标为i,j的像素灰度值; 归一化后的初级稀疏性轮廓响应取值采用首脉冲触发时间编码策略,如式2~4所示; 式中,vspike表示神经元放电的阈值电压;表示位于阵列NeuronsLGN中行列坐标为i,j的神经元的首次放电时间;表示遍历i,j取阵列中的最大值;表示遍历i,j取阵列中的最小值; 为改善神经元对轮廓信息与纹理噪声的处理能力,在传统稀疏度量sparij的基础上,考虑在感受野窗口中的统计特性,其中方差项起到区分轮廓与背景的作用,均值项μij起到平衡画面亮暗程度的作用;同时结合稀疏度量阈值threshold,从而获得新的稀疏度量sparsityij,具体如式5~7所示;定义感受野窗口用来表示以阵列NeuronsLGN中以行列坐标为i,j神经元为中心的区域,其中σ表示感受野窗口的半窗长,下同; 式中,表示在感受野窗口的直方图,n表示的维度,‖·‖p表示p范数; 综合考虑归一化后的初级稀疏性轮廓响应与稀疏度量sparsityij的共同作用,得到经LGN作用后的稀疏性轮廓如式8所示; 步骤2、在初级视皮层水平连接上,构建融合风车结构感受野的侧向调节模型,获得经初级视皮层侧向调节作用后的轮廓 步骤2.1采用二维Gabor函数模拟初级视皮层经典感受野的朝向选择特性,并遍历K个滤波器朝向θk,选取eijθk的最大值作为轮廓朝向响应;具体为: 轮廓朝向响应的计算如式9所示; 式中,ε表示空间压缩比,用来控制滤波器的纵横比,取值在0.23到0.92范围内,下同;K表示滤波器朝向的总数;maxeijθk表示遍历K个滤波器朝向θk,获取eijθk的最大值; 步骤2.2考虑到初级视皮层具有风车样功能构筑,即风车结构感受野内部的水平调制作用与神经元间距离和最优响应方向夹角有关,因此在初级视皮层水平连接上,构建融合风车结构感受野的侧向调节模型; 首先定义风车结构感受野窗口半窗长为σ,下标ij表示中心神经元的行列坐标为i,j,上标HC表示在初级视皮层水平连接上的模拟;周围神经元的行列坐标为i′,j′,定义中心和周围神经元之间的距离如式10所示; 然后定义为中心和周围神经元的连线方向,为周围神经元的最佳朝向方位;计算中心和周围神经元的最优响应方向夹角,当或时,周围神经元将对中心神经元起到增强作用,增强作用系数ωEi′,j′如式11所示; 式中,表示衰减速率; 当或时,周围神经元将对中心神经元起到抑制作用,抑制作用系数ωIi′,j′如式12所示; 最后综合感受野窗口内的所有周围神经元作用,计算中心神经元受到的总增强作用ΔEij和总抑制作用ΔIij,如式13所示; 计算经初级视皮层侧向调节作用后的轮廓如式14所示; 式中,δ表示神经元相互作用强度系数,用来调节控制的数值在3~5之间,表示轮廓朝向响应; 步骤3、在高级视皮层反馈连接上,构建包含环绕抑制的三通道高级视皮层色调感知模型,获得经高级视皮层色调感知作用后的轮廓 定义双拮抗感受野窗口对应的抑制性和兴奋性半窗长分别为σI和σE,对于r+g-、b+y-支路以及亮度开通道情形,σI=2σ,σE=σ;对于g+r-、y+b-支路以及亮度闭通道情形,σI=σ,σE=2σ;下标ij表示中心神经元的行列坐标为i,j,上标G表示在高级视皮层反馈连接上的模拟;假设周围神经元的行列坐标为p,q; 步骤3.1模拟高级视皮层色调感知功能,构建双拮抗感受野模型; 计算颜色拮抗通道神经元竞争系数和上标rg表示r+g-支路情形,上标gr表示g+r-支路情形,上标by表示b+y-支路情形,上标yb表示y+b-支路情形,下同; 考虑到视皮层经典感受野与非经典感受野的相互作用,在双拮抗感受野模型中融入高斯差分函数;对于行列坐标为p,q的周围神经元,高斯差分函数DoGpq的计算如式15所示; 以r+g-支路为例,竞争系数的计算如式16所示; 式中,符号[a]+表示取0和a的最大值;Rpq、Gpq分别表示周围神经元所对应的红色和绿色分量输入;A1表示衰减系数; 修改式16中周围神经元所对应的颜色分量输入,可计算g+r-支路、b+y-支路和y+b-支路的神经元竞争系数和 步骤3.2计算亮度开、关通道神经元竞争系数和 亮度开通道负责增强亮度高于周围区域的信息,而亮度关通道负责增强亮度低于周围区域的信息;以神经元竞争系数计算为例,上标on表示亮度开通道情形,如式17所示; 调整式15中双拮抗感受野窗口对应的抑制性和兴奋性半窗σI、σE,得到亮度闭通道对应的高斯差分函数DoG,继而通过式17可得神经元竞争系数上标off表示亮度闭通道情形; 步骤3.3模拟视皮层奇、偶通道结构,应用多通道滤波的局部能量模型对颜色拮抗通道信息进行整合,得到简单细胞活性和 对于r+g-支路神经元i,j,采用式18所示二维Gabor滤波器对输入信息滤波,将通过滤波器得到的信息与各通道神经元活性相结合,得到奇分量简单细胞活性和偶分量简单细胞活性如式19所示; 式中,表示相位参数,奇对称滤波器或π2,偶对称滤波器或π; 分别表示双拮抗感受野窗口周围神经元的奇、偶分量;A2表示模型系数; 修改式19中相应的神经元竞争系数,可计算g+r-、b+y-和y+b-支路的奇、偶分量简单细胞活性和 步骤3.4通过亮度开、关通道融合,计算亮度通道简单细胞活性和上标L表示亮度通道情形,如式20所示; 步骤3.5采用两层复杂细胞网络模拟高级视皮层作用,处理来自简单细胞的输入信息,得到经高级视皮层色调感知作用后的轮廓 第一层复杂细胞网络负责融合颜色拮抗通道和亮度通道的十组简单细胞响应统一各通路提取的轮廓特征,如式21所示; 第二层复杂细胞网络采用环绕抑制方法,通过神经元间的竞争作用达到纹理抑制效果,如式22所示; 式中,A3表示模型系数,表示抑制常数; 步骤4、构建模拟视皮层多元连接的轮廓感知模型,获得最终显著性轮廓Eij; 模拟LGN、初级视皮层以及高级视皮层对视觉激励信号的响应和传递过程,构建图像轮廓初级响应模型,如式23所示; 式中,α、β和γ分别表示前馈、反馈和水平连接系数,模拟其在生物视神经环路中的作用强度,τ表示神经元的膜电位常数; 图像轮廓初级响应Vtij的取值采用首脉冲触发时间编码策略,为了更好地修正背景轮廓和纹理噪声,将图像轮廓初级响应Vtij与高级视皮层响应进行整合,得到最终显著性轮廓图Eij,如式24所示; 式中,A、B分别表示整合系数。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市下沙高教园区2号大街;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。