2026年,想入门AI芯片的硬件加速,应该从学习TensorFlow/PyTorch的模型量化部署开始,还是直接上手Verilog写矩阵乘法单元?哪种路径更高效?
本人是电子工程专业研一学生,对AI芯片很感兴趣,未来想从事相关研发。目前有数字电路和FPGA基础,但AI算法知识比较薄弱。看到很多招聘要求里既写需要懂神经网络,又要求精通RTL设计。对于我这样的硬件背景学生,如果想系统性地切入AI芯片设计(特别是推理加速),应该先花时间补足机器学习算法和框架(如TensorFlow Lite, TVM)的知识,还是应该直接聚焦于用HDL实现卷积、池化等算子的硬件架构?有没有一个比较高效的学习路线图,能让我在1-2年内达到求职门槛?