摘要

本发明公开了一种针对复杂抽象化事物的类人化识别交互方法,该方法包括以下步骤:1)采集人的语音和脸部信息;2)提取人脸部表情特征和语言情感倾向特征;3)情感状态分析;4)交互模式判定;5)交互效果反馈。该方法利用数字摄像头和麦克风获取人的脸部和语音信息,通过语音识别和人脸识别获得脸部表情特征和语言情感倾向,并通过类人思维直接分析情感状态和完成交互模式的判定。最后,再次通过步骤1)和2)获得交互反馈调整优化用于情感状态分析的网络,从而实现机器在和人交互时可以对人类特有的复杂抽象事物进行识别交互和自适应。