未来芯片技术发展

2020-08-11 11:53:55 33

【摘自“传感器技术”】

目前,原子尺度硅材料的基本物理限制使得由摩尔定律驱动的硅技术演进路径似乎正快速接近终点。随着摩尔定律走向终结,人工智能、物联网、超级计算及其相关应用却提出了更高的性能要求,半导体产业步入亟需转变突破发展的关键点,芯片架构、材料、集成、工艺和安全方面的创新研究成为新的突破方向。

1 新型晶体管技术

1.1 新架构晶体管技术

鳍式场效应晶体管(Fin Field-effect transistor,FinFET)是当前主流半导体制造工艺采用的晶体管架构,成功地推动了从22纳米到7纳米等数代半导体工艺的发展,并将拓展到5纳米和4纳米工艺节点。全环栅晶体管(Gate-All-Around field-effect transistors,GAAFET)是一种继续延续现有半导体技术路线寿命的较主流技术,可进一步增强栅极控制能力,克服当前技术的物理缩放比例和性能限制。从3纳米开始,韩国三星电子将放弃FinFET架构转向GAAFET架构,计划在2020年底进行3纳米GAAFET产品风险试生产,2021年底进行批量生产。3纳米以下晶体管潜在技术包括互补场效应晶体管(Complementary Field-Effect Transistors,CFET)、垂直纳米线晶体管、负电容场效应晶体管(Negative Capacitance Field-Effect Transistors,NC-FET)、隧穿场效应晶体管(Tunnel Field-Effect Transistor,TFET)等。

1.2 新材料晶体管技术

研究硅基材料的替代材料,开发新型电子器件是解决当前芯片发展瓶颈的另一种解决方法。当前,替代性半导体材料主要包括第三代半导体材料、碳基纳米材料、二维半导体材料等。
第三代半导体材料包括碳化硅、氮化镓、氧化锌、金刚石、氮化铝、氧化镓等为代表的宽禁带半导体材料,可实现高压、高温、高频、高抗辐射能力,被业内誉为固态光源、电力电子、微波射频器件的“核芯”及光电子和微电子产业的“新发动机”。目前,碳化硅晶体管和氮化镓晶体管的研发相对较为成熟,推动着5G通信技术、新能源汽车、光电器件等市场快速增长,其他第三代半导体材料尚属于初级研究阶段。德国英飞凌公司已开发出系列碳化硅金属-氧化物半导体场效应晶体管和分立器件。美国Cree公司于2019年宣布投资10亿美元打造碳化硅超级制造工厂,将碳化硅晶圆制造能力提高30倍,以满足2024年的预期市场增长。宜普电源转换公司早在2009年就推出第一款商用增强型氮化镓晶体管,目前面向无线电源传送、全自动汽车、高速移动通信、低成本卫星、医疗护理等应用提供100多种氮化镓产品。日本AGC公司已联合Novel Crystal Technology公司开发氧化镓晶片。
石墨烯和碳纳米管是有望取代硅延续摩尔定律的碳基纳米材料。石墨烯具有非常优异的电学、力学、光学和热学等特性,可通过微纳加工工艺实现各种类型和功能的器件,现已开发出基于石墨烯的晶体管、二极管、存储器、集成电路、电池、超级电容器、热电器件、太阳能电池、光电探测器、传感器等电子和光电子器件。中国科学院金属研究所于2019年10月制备出“硅-石墨烯-锗晶体管”,大幅缩短延迟时间,并将截止频率由兆赫兹提升至吉赫兹。近年来,基于碳纳米管的碳基电子学研究也取得了飞速发展,并逐渐从基础研究转向实际应用。美国MIT于2019年开发出迄今为止用碳纳米管制造的最大计算机芯片,一颗由1.4万余个碳纳米管晶体管(Carbon Nanotube Field-Effect Transistors,CNFET)组成的16位微处理器,证明可以完全由CNFET打造超越硅的微处理器。
高质量的二维材料是潜在的下一代替代材料,但距离传统半导体产业至少还有十年的时间。除石墨烯外,较有希望的二维材料包括二硒化钨和二硫化钼等过渡金属二卤化物,但仍处于初级研究阶段。

2 新型存储器芯片技术

当前,静态存储器(Static Random-Access Memory,SRAM)、动态存储器(Dynamic Random-Access Memory,DRAM)、闪存等主流存储器面临着难以逾越的固有技术局限和工艺挑战。以相变存储器(Phase-Change Memory,PCM或PCRAM)、磁性存储器(Magnetoresistive Random Access Memory,MRAM)、阻性存储器(Resistive Random Access Memory,ReRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、碳纳米管存储器(Nanotube Random Access Memory,NRAM)为代表的新型存储器能够带来独特的性能优势,但均采用新材料制造且工艺严苛,大规模量产仍需一定的时间。其中,PCM、MRAM、ReRAM是普遍认为最有前途的新型非易失性存储器。PCM具有成本低和3D可伸缩性等特性,有望取代部分基于DRAM的高端固态硬盘;MRAM具有读写速度快、功耗低、成本低等特性,正在成为物联网设备存储器的领先候选者;ReRAM具有读写速度快和功耗低等显著的性能优势,有望带来高密度和低成本存储应用。据美国数据存储分析公司Coughlin Associates报告显示,MRAM和自旋转移转矩磁性存储器(Spin-Torque Transfer Magnetoresistive Random Access Memory,STT-MRAM)将在未来几年内取代或非门闪存;ReRAM是闪存的潜在替代品,但至少仍需十年时间才能完全实现。

3 新架构芯片技术

1)存内计算芯片

存内计算是由一系列迅速融合的软件技术和硬件架构进步实现的,突破了传统存储与计算分离架构对运算能力的限制,在性能、可扩展性和分析复杂性方面有了显著的改进,主要用于数据密集型计算的处理。人工智能和新型存储器是推动存内计算发展的主要需求,因此预计存内计算芯片将出现两种形态,一种为带有计算功能的存储器模块,另一种为基于存内计算的人工智能加速芯片。美国密歇根大学开发了全球首个基于忆阻器阵列的存算一体通用人工智能芯片,可快速、低能耗地执行多种人工智能算法。合肥恒烁半导体科技公司与中国科大团队合作研发的我国首款超低功耗存算一体人工智能芯片系统演示顺利完成,具有边缘计算和推理能力。

2)深度神经网络专用芯片

深度神经网络是识别和归类声音、图像、文本等数据的统计模型,目前大多数神经网络的训练和推理任务由图形处理器(Graphics Processing Unit,GPU)完成。在加速神经网络运算时,深度神经网络专用芯片具有比中央处理器(Central Processing Unit,CPU)和GPU更高的性能和更低的功耗。谷歌大规模部署了基于深度神经网络的张量处理器(Tensor Processing Unit,TPU)芯片,英特尔、亚马逊、华为、阿里等巨头也分别研制了自己的神经网络芯片,寒武纪、Graphcore等新创公司开发的深度神经网络专用芯片受到了欢迎。

3)神经形态芯片

神经形态计算是一种通过构建类似动物大脑结构的计算架构以实现能够模拟神经生物过程的智能系统的新型计算模式,它能极大提升计算系统的感知与自主学习能力,可以应对当前十分严峻的能耗问题,并有望颠覆现有的数字技术。尽管美国与欧盟等国家对神经形态计算都投入了大量研发资源,麻省理工学院、普渡大学、斯坦福、IBM、惠普等大学和公司开展了众多探索性研究工作,但神经形态芯片仍处于非常早期的原型阶段。英特尔推出一款名为“Pohoiki Beach”的新型神经形态芯片,内含800万神经元,速度比现有的CPU快近千倍,效率高近万倍,而耗电量仅为百分之一,所用架构为进一步扩展神经元数量奠定了基础。清华大学开发出全球首款异构融合类脑计算芯片——“天机芯”,由多个高度可重构的功能性核组成,可同时支持机器学习算法和类脑计算算法,已成功在无人驾驶自行车上进行了实验。

4)量子计算芯片

作为一种借助量子力学理论改进的计算模型,量子计算可超越经典计算机实现指数级的计算速度。近20多年来,量子计算取得了诸多突破性进展,但量子计算系统仍须在规模化、噪声、互联方面获取重大突破才能提供商业价值。量子计算芯片已获得了大量资金的支持,诸多大学和企业实验室都在开展研究。半导体量子芯片完全基于传统半导体工艺,更容易达到要求的量子比特数目,只要科学家能在实验室里实现样品芯片,其大规模工业生产理论上讲就不存在问题,这是它大大超越其它量子计算方案的优势所在。Intel公司在量子计算机研制方面就选择了硅量子点技术,于2018年研制出首台采用传统计算机硅芯片制造技术的量子计算机。澳大利亚新南威尔士大学开发出了全球首款3D原子级硅量子芯片架构,朝着大规模量子计算机迈出了重要一步。目前,中国本源量子公司已与中国科学技术大学合作研发出第一代半导体二比特量子芯片—玄微。

5)光电集成芯片

光电集成芯片是指利用光子与微电子技术将光子元件和电子元件集成在一起的集成电路,具有高传输带宽、快传输处理速度、高集成度和低成本等优点。在美国、欧盟、英国、日本等国家一系列战略布局的推动下,光电集成芯片取得了一定的重要研究进展,但此芯片技术研究仍处于起步阶段。荷兰研究人员开发出快速且高能效光子存储器,有望彻底变革未来光子集成电路的数据存储过程。日本电信电话公司在处理器中引入光网络技术,开发出集成纳米光子学技术的芯片,实现了超小型光电变换元件。

此外,随着Intel芯片、ARM芯片和AMD芯片安全漏洞的持续暴露,芯片设计漏洞检测成为了未来芯片技术发展的重点考虑因素之一。2019年,美国斯坦福大学开发出两种人工智能算法,能够更快地检测芯片前端和后端设计漏洞,缩减芯片验证周期;密歇根大学研究人员设计出一种新的处理器架构,所开发的“MORPHEUS”芯片可每秒20次加密和随机重编关键数据比特,远快于人类黑客和电子黑客技术的反应速度,进而主动抵御未来威胁。