2026年,全国大学生集成电路创新创业大赛,如果选择做‘基于FPGA的端侧AI语音唤醒词识别系统’,在实现轻量神经网络(如DS-CNN)和关键词检测算法时,如何利用FPGA的DSP Slice和BRAM资源进行极致优化?
我们团队计划参加2026年的集创赛,选题是端侧AI语音唤醒。打算在FPGA上部署一个轻量级的深度可分离卷积网络(DS-CNN)用于关键词识别。我们知道FPGA的DSP切片和BRAM很宝贵,但如何针对语音信号处理和神经网络计算的特点,进行高效的资源映射和优化还没有头绪。比如,MFCC特征提取的流水线设计、卷积层的并行计算展开、激活函数(如ReLU)的硬件友好实现等。希望能得到一些具体的架构设计思路和优化技巧,以便在有限的赛程和资源约束下做出有竞争力的作品。