软件定义汽车时代来临
AI 芯片是智能汽车时代实现域控制的核心
汽车由分布式架构向域控制/中央集中式架构方向发展。
传统分布式硬件架构面临智能汽车时代多维感知需求和海量非结构化数据处理的需求,一般每新增一个应用功能,便新增对应的感知传感器、决策、执行层。
随着智能网联汽车时代的到来,以特斯拉为代表的汽车电子电气架构改革先锋率先采用中央集中式架构,即用一个电脑控制整车。
全球范围内各大主机厂均已认识到软件定义汽车的大趋势,纷纷升级自身的电子电气架构,虽不同主机厂采用几个电脑控制整车的方案不同,但架构域控制/集中化方向相同。
域控制器逐渐集成前期的传感器处理器、数据融合、路径规划、决策等诸多运算处理器功能,因此对域控制器芯片算力需求大幅提升。
非结构化数据导致传统 MCU 不能满足需求,AI 作为协处理器逐渐成为智能时代的核心。
随着芯片需要处理传感器传来的大量汽车内外部环境信息,而且也要处理大量图片、视频等非结构化数据,面向控制指令运算的 MCU 不能满足需求。
AI 处理器作为智能时代的协处理器,成为智能汽车时代的核心。
一般待处理数据信息会先传递给CPU(等同于 MCU),CPU 发现有大规模的非结构化数据,自身无法处理,便将其传输给AI 处理器运算,而 CPU 便暂停运算,等待 AI 处理器运算结束后,再进行下一步操作,所以 AI 处理器是人工智能时代的协处理器,是现阶段智能汽车时代运算的核心。
预计 2025 年我国汽车 AI 芯片市场超 91 亿美元,CAGR46.2%
假设:
1)汽车市场容量预测。
如前文 MCU 测算假设一致,我国汽车产量 2019-2025
年复合增速为 2%。
2)各级别自动驾驶渗透率预测。
L3、L4 级分别于 2020 年、2023 年规模量产,每年并以 3-4%渗透率提升。
根据工信部发布的《汽车中长期发展规划》指出,我国 2020年自动驾驶渗透率达 50%,2025 年渗透率达 80%。
L3 级于 2020 年开始量产并规模投放市场,渗透率快速提升,随着 L4 级车于 2023 年开始量产,低级别渗透率陆续到达渗透率峰值后又缓慢下降。
3)各级别自动驾驶 AI 芯片单车价值预测。
2020 年 L1-L3 级 AI 芯片单车价值分别为 50 美元、150 美元、500 美元,随着技术逐渐成熟,2030 年下降到 41 美元、111 美元、315 美元。
我们预计到 2023 年 L4 级高级自动驾驶出现,AI 芯片单车价值约为 1500美元,到 2030 年下降到 931 美元。
2025 年我国 AI 芯片市场超 91 亿美元,未来 6 年复合增速达 46.4%。
经测算,2020年我国汽车 AI 芯片市场规模为 15 亿美元,同比增长 59.4%,随着汽车 EE 架构加速升级,域控制器/中央计算平台被广泛使用,到 2025 年 AI 芯片市场规模达 91 亿美元,CAGR 为 45.9%,到 2030 年将达 177 亿美元,十年复合增速 28.1%。
集成更多 AI 单元是智能芯片技术路径发展的大趋势
CPU,又称中央处理器,擅长逻辑控制和通用类型数据运算,具有不可替代性。
CPU有很强的通用性,可处理不同的数据类型,主要负责顺序控制、操作控制、时间控制、数据加工等操作,因此在任何一个电脑或嵌入式的计算中都有 CPU 或其裁剪版本。
CPU由控制器(Control),寄存器(Cache、DRAM)和逻辑单元(ALU)构成,其中控制器和寄存器占比较大,而处理数据的逻辑单元占比较小,因此对于专用领域数据处理能力较弱。
代表厂商即为 X86 处理器的英特尔和嵌入式处理器的 ARM。
GPU,又称图形处理器,俗称显卡,擅长大规模并行计算。
GPU 拥有计算单元数量众多和超长的流水线,处理的数据类型通常为高度统一的、相互无依赖,省去了大量 CPU的不必要控制指令计算模块,并行计算能力较 CPU 强。
随着人工智能的发展,GPU 不断被应用于数值模拟、机器学习、视觉处理、语音识别等领域,厂商代表即为英伟达。
FPGA 全称是 Field Programmable Gate Array:又称可编程逻辑门阵列,算力较高,适合小规模定制化开发测试。
用户可通过烧入配置文件来定义其内部结构的连线,从而达到定制电路的目的。
FPGA 的芯片量产成本较高,能效比较差,不如 ASIC 专用芯片。
适用于科研、企业开发阶段,一旦方案确定,其成本优势就不再突出。
代表厂商:赛灵思、阿尔特拉(被英特尔收购)、深鉴科技。
ASIC 全称是 Application-Specific Integrated Circuit:是一种为专门目的而设计的集成电路,具有算力最高,能效比优等特点。
ASIC 面向特定用户的需求,适合较为单一的大规模应用场景,运行速度在同等条件下比 FPGA 快。
但在架构层面对特定智能算法作硬化支持,指令集简单或指令完全固化,若场景一旦发生变化,该类 AI 芯片便不再适用,需要跟新换代。
面对现阶段,AI 算法日新月异,每年都有大量的算法被开发出来,对于自动驾驶领域适用性不强。
所以现阶段并没有真正意义上的 ASIC 芯片。
N-SOC,(即添加神经网络单元的系统级芯片)是指在芯片中集成更多的神经网络单元,以实现快速的 CNN(卷积神经网络)运算。
N-SOC 是现阶段市场的新名词,主要系随着 AI 芯片的发展,传统定义方法并不完全适用,N-SOC 区别于 ASIC 的智能算法被硬化,但其并不是一颗完全通用芯片,仅支持少量的算法。
典型的代表企业:英特尔旗下的 Mobileye、华为(达芬奇架构 Ascend 系列)、寒武纪(MLU 系列)、百度(昆仑云)、阿里平头哥、Google(TPU)等。
由通用向专用排序依次:CPU、GPU、FPGA、ASIC;数据处理成本经济性(由优至差):ASIC、FPGA、GPU、CPU。
1)CPU 最通用,算力差,能效比最差,但除了运算,还包括控制指令,不可被替代;
2)GPU 为较为通用的芯片,算力高,架构较为开放,可允许主机厂基于底层硬件架构开发自己的专门算法,但能效比较差;
3)FPGA,算力一般,可根据客户需求用配置文件更改芯片结构的连线,实现定制电路,适用于实验室科研、前期开发等小批量应用;
4)ASIC 为专用芯片,算力高、能效比优,节约不必要开发资源,规模量产成本最低,但支持算法不够灵活。
AI 芯片通过添加神经网络单元实现 AI 运算的更高效。
目前市场对未来汽车 AI 芯片采用通用 GPU、FPGA、ASIC 芯片方案仍有较大争议,我们认为汽车数据处理芯片不断异构化,通过不断添加神经网络单元实现 AI 运算是未来发展的主要方向。
除了华为、 地平线、寒武纪等 AI 芯片不断增加神经网络单元外,而作为通用 GPU 的代表供应商英伟达的自动驾驶系列芯片,也通过添加神经网络单元,以实现对 AI 处理越来越高效。
但总体而言 GPU 仍功耗较高,丰富的通用模块可实现对各种场景的适用性,但也带来了成本过高,功耗过高的问题。
而新出现的 N-SOC 虽不是 ASIC 固定算法,具有成本/功耗较低等优点,但其针对各种场景的适应性仍较弱。
在汽车领域,未来两者未来性能、成本等方面会有相互靠近的趋势。
(来源:财经豹社)