同济大学岳继光获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉同济大学申请的专利一种面向社交机器人的多模态融合情绪识别方法和系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115533914B 。
龙图腾网通过国家知识产权局官网在2025-11-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211290845.X,技术领域涉及:B25J9/16;该发明授权一种面向社交机器人的多模态融合情绪识别方法和系统是由岳继光;栾锋;周艳敏;何斌;陆萍;徐彩月设计研发完成,并于2022-10-21向国家知识产权局提交的专利申请。
本一种面向社交机器人的多模态融合情绪识别方法和系统在说明书摘要公布了:本发明涉及一种面向社交机器人的多模态融合情绪识别方法和系统,所述方法包括如下步骤:获得目标人员的实时感知信息,所述实时感知信息包括图像信息、触觉信息和声音信息;对所述实时感知信息进行预处理,获得预处理后的感知信息;根据所述预处理后的感知信息,获得情绪识别结果。与现有技术相比,本发明融合了视觉、语音、触觉感知数据进行情绪识别,且使用麦克风及肌电传感器获取语音感知数据,视觉感知数据采用多个关键点以捕捉人体参数,提高了识别准确度的同时适用于更多环境。
本发明授权一种面向社交机器人的多模态融合情绪识别方法和系统在权利要求书中公布了:1.一种面向社交机器人的多模态融合情绪识别方法,其特征在于,基于多模态融合情绪识别系统实现,包括如下步骤: 获得目标人员的实时感知信息,所述实时感知信息包括图像信息、触觉信息和声音信息; 对所述实时感知信息进行预处理,获得预处理后的感知信息; 将所述预处理后的感知信息输入预训练好的多模态融合情绪识别模型,获得情绪识别结果, 所述的预处理的过程包括如下步骤: 根据所述图像信息,获得人体关键点坐标信息和人脸关键点坐标信息; 根据所述触觉信息,获得接触力信息; 根据所述声音信息,获得语音信息; 根据所述人体关键点坐标信息、人脸关键点坐标信息、接触力信息和语音信息,获得所述预处理后的感知信息, 所述的人体关键点包括鼻子、左眼、右眼、左耳、右耳、左肩、右肩、左胳膊肘,右胳膊肘,左手腕,右手腕,左臀,右臀,左膝,右膝,左脚踝,右脚踝中的一个或多个,所述人脸关键点包括眉毛、眼睛、鼻子、嘴巴,关键部位额头部位、脸颊部位、眼袋部位、上下颚部位、嘴唇部位中的一个或多个, 所述的人体关键点坐标信息和人脸关键点坐标信息的获取过程包括如下步骤: 根据所述图像信息,经过图像增强、数据编码和传输、平滑、边缘锐化、分割、特征抽取以及图像识别与理解,获得优化后的图像信息; 将所述优化后的图像信息输入预训练好的关键点识别模型,获得所述人体关键点坐标信息和人脸关键点坐标信息, 所述的声音信息从麦克风和肌电传感器获取, 所述多模态融合情绪识别系统包括: 视觉处理模块,包括视觉传感器和图像处理单元,所述图像处理单元用于从所述视觉传感器获取实时图像信号,并获取人体关键点坐标信息和人脸关键点坐标信息; 触觉处理模块,包括触觉传感器和触觉信号处理单元,所述触觉信号处理单元用于从所述触觉传感器获取实时触觉信号,并获取接触力信息; 听觉处理模块,包括语音传感器和语音信号处理单元,所述语音信号处理单元用于从所述语音传感器获取实时听觉信号,并获取语音信息; 情绪识别模块,分别与所述图像处理单元、触觉信号处理单元和语音信号处理单元连接,用于获得所述人体关键点坐标信息、人脸关键点坐标信息、接触力信息和语音信息,并输入预置在内的预训练好的多模态融合情绪识别模型,输出情绪识别结果, 所述的语音传感器包括肌电传感器、声音传感器中的一个或多个, 还包括交互界面,与所述情绪识别模块连接。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人同济大学,其通讯地址为:200092 上海市杨浦区四平路1239号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励