北京大学陈婧获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京大学申请的专利一种两阶段的多说话人基频轨迹提取方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115631744B 。
龙图腾网通过国家知识产权局官网在2025-06-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211084602.0,技术领域涉及:G10L15/02;该发明授权一种两阶段的多说话人基频轨迹提取方法是由陈婧;吴玺宏;李想;孙溢凡;栗楠设计研发完成,并于2022-09-06向国家知识产权局提交的专利申请。
本一种两阶段的多说话人基频轨迹提取方法在说明书摘要公布了:本发明一种两阶段的多说话人基频轨迹提取方法,其步骤包括:1对给定的多说话人混合语音进行处理,得到所述多说话人混合语音中每一帧的频谱;2利用卷积神经网络获取所述幅度谱的局部特征;3将各帧的局部特征输入全连接层,得到每一帧对应的所有基频估计值;4将所得各帧的基频估计值作为输入,迭代预测每一说话人的基频序列;其中第i轮迭代的处理方法为:a将第i‑1轮分离的基频序列输入编码器得到基频序列的特征表示;b将基频序列特征表示与基频估计值输入到条件链式模块中,得到第i轮迭代对应的隐层输出向量;c解码器将第i轮迭代对应的隐层输出向量解码为第i个说话人的基频序列。本发明提出的方法无需预设输出数目。
本发明授权一种两阶段的多说话人基频轨迹提取方法在权利要求书中公布了:1.一种两阶段的多说话人基频轨迹提取方法,其步骤包括: 1对给定的多说话人混合语音进行处理,得到所述多说话人混合语音中每一帧的频谱;所述频谱包括幅度谱与相位谱; 2利用卷积神经网络获取所述幅度谱的局部特征; 3将各帧的所述幅度谱的局部特征输入全连接层,获取所述多说话人混合语音中每一帧的谐波与基频之间的映射关系,得到每一帧对应的所有基频估计值; 4将步骤3所得各帧的基频估计值作为输入,每轮迭代提取一个说话人的基频序列,直至预测完最后一个说话人的基频序列;其中第i轮迭代的处理方法为: a将第i-1轮分离的基频序列输入编码器进行编码,得到第i-1轮分离出的基频序列的特征表示; b将步骤a中得到的基频序列特征表示与步骤3中得到的所有帧的基频估计值一起输入到条件链式模块中,得到第i轮迭代对应的隐层输出向量; c解码器将第i轮迭代对应的隐层输出向量解码为第i个说话人的基频序列,即得到第i轮迭代分离出的基频序列。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京大学,其通讯地址为:100871 北京市海淀区颐和园路5号北京大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。