自从计算机诞生以来,就是采用的著名的冯诺依曼架构。
这是一个以计算和存储为核心的架构, CPU 作为处理器单元,负责完成各种算术和逻辑计算。而内存(运存)和硬盘(外部存储),负责存储数据,与 CPU 交互。
2a30a9e3349b886177c7cb4ad13e4bf9.png冯诺依曼架构
CPU(central processing unit)的结构主要包括运算器(ALU, Arithmetic and Logic Unit)、控制单元(CU, Control Unit)、寄存器 (Register)、高速缓存器 (Cache) 和它们之间通讯的数据、控制及状态的总线。
后面随着游戏、 3D 设计等多媒体图形软件的发展,CPU要处理的工作量越来越大,也越来越复杂, CPU 实在忙不过来,所以就有了专门进行图像和图形相关运算工作的 GPU ,来分担 CPU 的压力。
GPU(Graphics Processing Units,图形处理器)起初不是专为智能型计算而设计,是为大型网络游戏画面渲染显示而设计的。图形处理原理是通过大量计算单元同时计算图形中每一个线条中点的坐标。而人工智能计算最基本的计算类型是矩阵运算,恰好与图形运算是类似的,因而被用于智算领域。
NPU(Neural Processing Units,神经网络处理器)是一种专门为人工智能(AI)计算设计的处理器,主要用于高效执行神经网络相关的运算(如矩阵乘法、卷积、激活函数等)。相较于传统CPU/GPU,NPU在能效比和计算速度上更具优势,尤其适合移动设备、边缘计算和嵌入式AI场景。
国产芯片如华为昇腾910系列就是华为自主研发的高性能NPU,其综合性能在国产AI芯片中处于领先地位,并在多个行业应用中展现出显著优势。
TPU(Tensor Processing Unit,张量处理器)是谷歌于2016年推出的张量处理单元,主要用于低精度运算。这款专为机器学习设计的专用芯片(ASIC),通过硬件与算法的深度协同优化,在性能、能效比和扩展性上实现了突破,成为驱动AI技术进化的重要引擎。
DPU(Data Processing Unit,数据处理器) 是一种专为数据中心设计的处理器,旨在解决传统CPU在处理网络、存储、安全等基础设施任务时的效率瓶颈。作为继CPU、GPU之后的“第三颗主力芯片”,DPU通过硬件加速和任务卸载,释放CPU算力以支持核心业务应用。在人工智能计算领域的主要作用有:
AI推理加速:DPU支持轻量级模型推理,例如在智能摄像头中实现实时目标检测。科学计算:通过RDMA技术优化跨节点数据传输,提升分布式计算效率。