2020年秋季开始在全球爆发的芯片短缺在2021年持续了整整一年,但这一趋势并未缓解。半导体行业正在扩大产能,同时积极升级工艺以提高生产率。另一方面,新冠病毒继续变异,疫情的持续继续对整个半导体行业产生影响。远程办公、在线会议和在线教育习惯的形成加速了几个行业的数字化转型,也从侧面推动了网络通信、人工智能、存储和云服务的技术更新。
1 3nm工艺批量生产
在半导体尖端制造工艺方面,三星代工在2020年暂时将4LPE调整为完整工艺节点。也就是说,4nm工艺将成为三星在下一段时间内推广的重点。2021年10月,台积电发布消息称,N3工艺基本明朗略有延迟,2022年或将成为4nm工艺年。iPhone 14要赶上3nm工艺几乎是没有希望的。
但基本上,很明显,尽管使用台积电N3工艺的最快芯片可能需要等到2023年第一季度,但N3工艺量产显然要到2022年第四季度。
我们认为三星3nm GAA可能比台积电N3晚一点。三星开始在3nm节点使用GAA结构晶体管作为重点,但事实上,三星也未能如期推进。而且根据三星目前的公开数据,其最早的3nm工艺可能在技术层面受到更大的不确定性。
至于英特尔3,它完全无法赶上2022年的班车。台积电N3将继续保持其市场主导地位,暂时领先其他两个竞争对手。但踩下N3的刹车实际上为2nm时代的到来埋下了隐患。
一方面,英特尔20A工艺预计将于2024年上半年问世。英特尔18A可能会出现在2025年下半年——英特尔在这两个节点重返技术领先地位的决心相当坚定。另一方面,三星预计将在2025年下半年大规模生产2nm工艺。这将是其第三代GAA结构晶体管,即其3nm工艺尽管很难获得市场主导地位,但该技术将为其2nm工艺提供强有力的支持。这些都增加了后续2nm工艺市场竞争的不确定性。
2 DDR5标准内存进入量产和商用
2020年7月15日,为了应对从客户端系统到高性能服务器等广泛应用面临的性能和功耗挑战,固态技术委员会(JEDEC)正式发布了下一代主流内存标准DDR5 SDRAM(JESD79-5)的最终规范,开启了全球计算机内存技术的新时代。JEDEC将DDR5描述为一种“革命性”的内存架构,并认为其出现标志着该行业即将向DDR5服务器双列直插内存模块(DIMM)过渡。
DDR5型
根据市场研究公司Omdia的数据,DDR5的市场需求从2020年开始出现,到2022年,DDR5将占整个DRAM市场的10%,到2024年将扩大到43%。2023年,DDR5将在手机、笔记本电脑和个人电脑等主流市场广泛采用,出货量将大幅超过DDR4,完成两种技术之间的快速过渡。
内存带宽的增长速度远远快于处理器性能,这是DDR5推出的基本驱动力。但与之前的产品迭代不同的是,该产品主要关注如何降低功耗,并将PC作为应用程序进行优先考虑,业界普遍认为DDR5将效仿DDR4,在数据中心占据领先地位。
DDR5最引人注目的地方是速度比已经“超高速”的DDR4更快。与DDR4内存在1.6GHz时钟频率下的最大3.2Gbps传输速度相比,新的DDR5内存达到了6.4Gbps的最大传输速度,并将电源电压从DDR4的1.2V同步到1.1V,进一步提高了内存的能效性能。
目前,三星、SK海力士和美光等全球存储巨头已经宣布了各自DDR5产品的量产和商业时间表。然而,DDR5不会在一夜之间上市,需要生态系统的大力支持,包括系统和芯片服务提供商、渠道供应商、云服务提供商和原始设备制造商。
3 DPU市场蛋糕继续增长并爆炸
民主党的绰号在2020年底开始流行起来。我们认为,使DPU一词流行起来的市场行为是:首先,NVIDIA收购了以色列公司Mellanox,该公司在第二年创造了“DPU”一词;其次,初创公司Fungible在同年大力推广DPU一名称。
DPU中的D表示DATA数据。智能网卡迅速发展成为DPU数据处理器。以闪电般的速度,在短时间内涌现出数十家DPU初创公司。
DPU本质上是智能网卡的进化,但从DPU的热情不难看出,数据中心对数据方向的专用处理器以及形式上的进一步固定和标准化有着强烈的渴望。
数据处理单元
在数据中心的早期,有一个术语叫做“数据中心税”,即服务器购买了许多核心CPU。但对于最后的业务,这些核心中的一些在默认情况下被“蚕食”了。因为这些处理器资源需要用来做数据虚拟联网、安全、存储、虚拟化等工作。当这些任务变得越来越复杂时,DPU就出现了。正如图形计算有GPU,人工智能计算有NPU一样,DPU是这个时代专用计算兴起的产物。
一般来说,DPU的工作包括:首先,卸载原始CPU OVS、存储、安全服务和其他活动;其次,管理系统管理程序做隔离、虚拟化实现;第三,通过多种方式,进一步加快跨节点数据处理。
不难理解,DPU已经成为数据中心的标准。然而,在具体实施方面,不同的DPU不应该在同一个舞台上,这是由于它们所扮演的角色不同造成的。例如,尽管英特尔的IPU也是一个DPU,但在责任和工作偏见方面,它仍然与NVIDIA DPU不同。因此,DPU市场可能会被细分。以及数据中心系统公司正在研究他们自己的更具适应性的DPU,这给DPU市场带来了不确定性。
4跨越“存储墙”和“电源墙”的存储和计算集成
存储器中处理(PIM)概念的形成可以追溯到20世纪70年代,但由于芯片设计和制造成本的复杂性以及缺乏杀手级的大数据应用程序来驱动,这一概念受到了限制。
近年来,随着芯片制造工艺的进步和人工智能应用的发展,处理器的功能越来越强大,速度越来越快,存储容量也越来越大。面对海量数据,数据处理速度慢、处理能耗高等问题已成为计算瓶颈。从处理单元外的存储器中提取数据时,处理时间往往比计算时间长数百或数千倍,整个过程的能耗大致在60%至90%之间,效率非常低。
另一方面,接近极限的摩尔定律和受存储墙限制的冯·诺依曼架构在计算能力增强方面已经无法满足这个时代的需求。当前试图解决“存储墙”和“电源墙”问题的非冯·诺依曼体系结构包括低电压亚阈值数字逻辑ASIC、神经形态和模拟计算。非冯-诺依曼体系结构包括低电压亚阈值数字逻辑ASIC、神经形态计算和模拟计算,其中存储器计算集成是最直接、最有效的。
这是一种新型的计算架构,可以进行二维和三维矩阵乘法运算,而不是在传统的逻辑计算单元上进行优化。这在理论上可以消除数据传输的延迟和功耗,使人工智能计算的效率提高数百倍并降低成本,因此特别适合神经网络。
5 5G建设聚焦自主组网和毫米波
凭借光纤般的速度、超低延迟和网络容量,5G的影响力与电力一样大,彻底改变了所有行业。
作为对Sub-6GHz频段的有力补充,5G毫米波具有高频宽带容量、易于与波束逸度结合、超低延迟等突出优势,有利于推动工业互联网、AR/VR、云游戏、实时计算等行业的发展。同时,毫米波可以支持高精度定位和高设备集成的密集区域部署,这将有助于促进基站和终端的小型化。
根据GSMA的“毫米波应用价值”报告,到2035年,5G毫米波预计将创造5650亿美元的全球GDP,并产生1520亿美元税收,占5G创造的总价值的25%。
目前,48个国家的186家运营商正计划开发26-28 GHz、37-40 GHz和47-48 GHz毫米波频谱的5G;23个国家的134家运营商持有毫米波部署许可证,其中北美、欧洲和亚洲占所有频谱部署的75%。其中,26-28 GHz是部署和许可最多的毫米波段,37-40 GHz紧随其后。
但并不是所有的应用场景都需要毫米波覆盖。201年7月,中国工业网、工业和信息化部对港口、电力、农业9个场景进行了5G业务深化。上述场景要求非常高,延迟非常高,这对毫米波来说是有利的。
6款EDA工具开始使用AI设计芯片
当前的智能手机、车联网、物联网等终端对SOC PPA(功耗、性能、面积)提出了更高的要求。面对数亿晶体管的芯片设计规模,以及异构集成、系统级封装、芯片等新的封装方向,如果没有机器学习(ml)和人工智能助手,工程师将面临更严峻的挑战。
将人工智能设计从概念升级到现实世界阶段,无论是将人工智能算法应用于EDA工具,使芯片设计“AI Inside”,还是专注于如何设计EDA工具,帮助人工智能芯片高效设计“AI Outside”,EDA行业和学界都已开始行动起来。在国家战略层面,美国国防高级研究计划局(DARPA)甚至开始将电子资产智能设计(IEDA)作为代表性项目,重点突破优化算法、亚7纳米芯片设计支持、布线和设备自动化等关键技术挑战。
事实上,人工智能用于芯片设计并不是什么新鲜事。谷歌当时在TPU芯片的设计中使用了人工智能技术;三星在芯片设计中融入了人工智能技术,据称超出了此前可实现的芯片PPA效果;英伟达也在使用人工智能算法来优化5纳米和3纳米芯片的设计。
总的来说,芯片设计(或物理实现)的后端,尤其是在占人力巨大比例的布局和布线领域,是人工智能的关键。快速建模、电路仿真、提高VLSI QoR等也是EDA使用人工智能的方向。可以看出,人工智能目前的优势是进行大规模计算、比较提取,或对某些功能的增强,而在“0到1”的创建阶段和决策阶段,仍然需要与人类工程师合作。但不管怎么说,人工智能将是EDA未来发展的终极形式,也是未来几年提高芯片设计效率的关键。
7 Matter将推动物联网和智能家居连接标准的统一
连接标准联盟(前身为Zigbee联盟)和亚马逊、苹果和谷歌等智能家居制造商开发了Matter,这是一种基于原始IP连接家庭项目(CHIP)的标准化互连。Matter是一种标准化的互连协议,旨在实现不同制造商的物联网设备的互操作性和兼容性,并使用各种无线连接标准,从而为消费者带来更好的设备安装和操作体验,简化制造商和开发商的物联网设备开发流程。
Matter作为应用层,将使用各种IP协议和互连标准操作的设备统一起来,支持它们跨平台通信。Matter协议目前支持三种底层通信协议——以太网、Wi-Fi和线程——还统一了低功耗蓝牙(BLE)作为配对方法的使用。它是一种在现有协议之上运行的架构,未来将支持更多协议,包括Zigbee和Z-Wave。
Matter标准已经得到互联网巨头(亚马逊、苹果和谷歌)、芯片供应商(硅实验室、恩智浦和乐芯科技)、物联网和智能家居设备制造商(宜家、华为和OPPO)以及智能家居平台(涂鸦和五联)的支持,预计从2022年起将在全球范围内迅速增长和传播。预计从2022年起,它将成为物联网和智能家居的统一互联标准。
8 RISC-V体系结构处理器进入高性能计算应用
10年前,起源于加州大学伯克利分校的RISC-V已经成为主流的微处理器架构指令集(ISA),但其主要应用也仅限于嵌入式系统和微控制器(MCU)领域,尤其是物联网市场。这种开源、免费、免费的微处理器体系结构能否作为X86和ARM的高性能计算(HPC)?从芯片巨头、Fabless初创公司到微处理器内核IP开发商,都试图将RISC-V引入AI、5G和服务器等高性能计算应用。
RISC-V病毒
SIIVE的性能系列是其性能最高的RISC-V内核,专为网络、边缘计算、自主机器、5G基站、虚拟/增强现实而设计。最新的P550微处理器采用RISC-V RV64GBC ISA,13级流水线/三次启动/图表,四核集群具有4MB的三级缓存,主频2.4 GHz。P550内核SPECINT 2006测试性能为8.65/GHz。与ARM Cortex-A75相比,SPECINT2006和SPECFP2006整数/浮点参考测试的性能更高,占用面积更小。四核P550集群的占用空间大致相当于一个Cortex-A75。
Intel将在其7nm Horse Creek平台中使用P550内核,通过将DDR和PCIe等Intel接口IP与SiFive的最高性能处理器相结合,Horse Creeks将为高端RISC-V应用程序提供有价值且可扩展的开发工具。
硅谷IC设计初创公司Esperanto推出了ET-SoC-1,这是一种人工智能油门芯片,具有1000多个集成RISC-V核心,专为数据中心的人工智能推理而设计。ET-SoC-1采用台积电的7nm工艺,集成240亿个晶体管,包括1088个高性能ET-Minion 64位RISC-V有序内核(每个内核都配有矢量/张量单元);四个高性能ET Maxion 64位RISC-V无序内核;以及超过160MB的片上SRAM。用于LPDDR4x DRAM和eMMC FLASH的外部大容量存储器接口;PCIe x8 Gen4和其他通用I/O接口。该芯片的峰值计算性能为100-200 TOPS,用于ML推理,操作功耗小于20W。
9先进的封装技术成为“新摩尔定律”
在过去的几十年里,摩尔定律就像是引领半导体行业发展的灯塔。然而,由于物理限制和制造成本的原因,当先进的工艺技术达到5纳米、3纳米甚至2纳米时,通过晶体管小型化工艺实现更高经济价值的逻辑正逐渐变得不那么有效。
从市场趋势来看,过去十年数据计算的发展已经超过了过去四十年的总和。云计算、大数据分析、人工智能、人工智能推断、移动计算,甚至自动驾驶汽车都需要大量计算。为了解决力增长问题,除了通过CMOS微型化继续提高密度外,将不同的工艺/架构、不同的指令和硬件的不同功能结合起来是很重要的。
因此,一条不再是直线的IC技术发展道路,以及市场对创新解决方案的需求,将封装,特别是先进的封装技术,推向了创新的前沿。
最新研究数据显示,从2020年到2026年,先进包装市场的复合年增长率将约为7.9%。到2025年,仅收入一项,该市场就将超过420亿美元,几乎是传统封装市场预期增长率(2.2%)的三倍。其中,2.5D/3D堆叠IC、嵌入式芯片(嵌入式芯片,ED)和扇出封装(扇出,FO)是增长最快的技术平台,复合年增长率分别为21%、18%和16%。
目前,OSAT公司、铸造厂、IDM、Fabless公司、EDA工具供应商等都在加入先进封装市场的竞争,并投入了巨额资金。但总的来说,在可预见的未来,2.5D/3D封装技术将成为“先进封装”的核心,而提高互连密度和采用Chiplet设计将是驱动“先进包装”发展的两条技术路径。为了展示先进包装的最大价值,需要全产业链的协同作用。
10汽车领域控制器和汽车大脑
整个汽车电气电子架构正在经历从传统的分布式架构向基于DCU的集中式架构和基于DCU融合的区域架构的转变。
目前,汽车电子电气架构主要呈现智能座舱、智能计算、智能驾驶三域控制架构的现状。预计2030年后,随着自动驾驶技术路线的逐步成熟,自动驾驶高性能芯片将与驾驶舱主控芯片进一步集成到中央计算芯片,从而通过集成进一步提高计算效率、降低成本。
这意味着,汽车现在需要一个非常强大的“大脑”——既要发挥硬件中枢的作用,又要有非常强大的计算能力来满足上述转型过程中产生的硬件和软件的新需求。
事实上,对于自动驾驶系统的发展,业界普遍认为,从L2+辅助驾驶到L4/L5级自动驾驶的渐进路线是最可行的路径。这就要求相应的中央计算平台具有高超的可扩展性,支持系统开发的顺利演进,满足各级自动驾驶对运算能力和功耗的差异化要求,提高主机厂等合作伙伴的开发效率。
当然,汽车大脑芯片不能只关心峰值功率而是要综合平衡。应考虑信息安全、功能安全、异构架构、不同数据类型处理、热管理等。同时,考虑到“软件定义汽车”已经成为行业共识,在设计中,也需要预留足够的冗余空间来应对不断变化的汽车架构和人工智能算法。
在未来,汽车将毫无疑问,它是一个机电智能。现有的子系统是集成的,因为大量集成将成为一种趋势。这也使得硬件开发瓶颈在突破后,优秀的用户体验导致软件开始成为汽车的重要卖点。