摘要
<正>近年来,基于深度学习的音频事件分类方法成为研究热点,但其嵌入式实现仍存在较多难点。论文由此出发,研究嵌入式GPU下的音频事件分类算法及软硬件实现。硬件上,采用环形麦克风阵列和Jetson Nano完成音频采集及音频分类处理。算法上,研究两张基于多重卷积神经网络块结合池化层的方法,并在卷积层后叠加BN层和RELU激活函数。软件上,实现Python下的音频采集、算法实现及指标输出。实验对比证明,论文提出的网络一和网络二的分类准确指标m AP的值为0.431/0.343、AUC的值为0.973/0.965、d-prime的值为2.732/2.568。指标值明显高于与谷歌提供的基线值,且网络一较为优化。
- 单位