FPGA线上课程平台|最全栈的FPGA学习平台|FPGA工程师认证培训
登录
首页-所有问题-其他-正文

2026年,FPGA大赛做AI加速器方向,如何用Zynq实现轻量级MobileNet推理并优化资源占用?

单片机玩家单片机玩家
其他
2小时前
0
0
3
今年FPGA国赛想冲AI加速器赛道,选了MobileNet作为轻量级网络,但用Zynq部署时发现LUT和BRAM消耗特别大,尤其是卷积层和深度可分离卷积的并行化设计。有没有学长分享下具体怎么优化资源?比如量化位宽、流水线调度、权重复用这些技巧,或者有没有现成的开源工程可以参考?
单片机玩家

单片机玩家

这家伙真懒,几个字都不愿写!
158282.01K
分享:
2026年FPGA大赛备赛,用Zynq做实时车牌识别,从图像采集到字符识别的硬件加速方案怎么设计?上一篇
2026年FPGA大赛备赛,用Zynq做实时目标检测,如何平衡YOLO算法精度和资源占用?下一篇
FPGA线上课程平台|最全栈的FPGA学习平台|FPGA工程师认证培训
还没有人回答,第一个参与下?
我要回答
回答被采纳奖励100个积分
FPGA线上课程平台|最全栈的FPGA学习平台|FPGA工程师认证培训
请先登录