2026年,芯片行业‘端侧AI’和‘大模型轻量化部署’趋势下,对于FPGA工程师而言,是深入学习Vitis AI、Pytorch量化工具链更重要,还是扎实掌握CNN/Transformer硬件架构的RTL实现更有利于长期发展?
目前在一家做边缘计算设备的公司做FPGA开发,主要做视频接口和简单的图像预处理。看到行业里端侧AI和轻量化大模型部署很火,很多招聘要求都提到了Vitis AI、TVM这些工具。我有点困惑,如果想往这个方向转型,是应该花大量时间去精通Xilinx或Intel的AI工具链,学习怎么把训练好的模型部署到FPGA上,还是应该回归硬件本质,去深入研究CNN、Transformer这些网络的计算特性、数据流,甚至尝试用Verilog去实现一些核心算子(比如注意力机制)?哪种路径的技术壁垒更高,长期职业天花板也更高?担心只学工具链容易被替代。