小编 7 月 16 日消息,英特尔公司与绿色革命冷却公司(GRC)合作编写了一份关于液浸冷却(liquid immersion cooling)的联合白皮书,探讨了数据中心采用液浸冷却技术而不是空气冷却技术的实际好处,包括提高能源效率、降低环境影响和提高计算密度。

这两家公司在 1 月份宣布了一个多年期项目,旨在帮助数据中心行业减少数字基础设施对环境的影响。GRC 是白皮书的共同作者,专门从事液浸冷却技术,英特尔也在 5 月透露其正在建立自己的实验室来鉴定、测试和演示液浸冷却技术。

该论点的核心是,数据中心使用的电力约占世界总电力供应的 1.5%-2%。如果不加以控制,在未来十年,这一比例可能会扩大到 13%。

更重要的是,其中高达 40% 的电力消耗不是用于实际计算,而是用于冷却所有数据中心基础设施,而且随着处理器的功率密度不断增加,服务器现在已经突破了空气冷却系统所能应付的极限,冷却风扇能散去的热量是有限的。

根据英特尔和 GRC 的调查结果,许多数据中心运营商都意识到了这一点,多达四分之三的运营商现在正在考虑将可持续性作为竞争的差异化因素。然而,这两家公司声称,数据中心在电力使用效率(PUE)方面已经碰壁,近十年来平均在 1.6 左右徘徊。

白皮书补充说,取消内部服务器风扇可以减少 10-15% 的能源消耗。机箱内的热部件仍然必须以某种方式冷却,英特尔和 GRC 认为,全浸式液体冷却可以使更多的服务器安装在一个特定的空间里。他们声称,由于电力负荷减少,这就减少了开关设备、电缆和备用发电机等设备的数量,他们说这意味着资本支出和运营成本的降低。

不过,也有人质疑上述观点。Omdia 的数据中心物理基础设施高级首席分析师 Moises Levy 称,液浸冷却要求更专业的安装和更高的维护成本。还需要对冷却机制进行更专业的监控,包括对过滤系统的维护,可以检测到可能表明泄漏的细微压力变化的软件,以及对电介质液体本身质量的监控。

小编了解到,液浸冷却技术还有一个额外的好处,可使数据中心减少用于发电和辅助冷却的水消耗。

英特尔这一最新的合作关系建立在该公司 5 月初宣布投资 7 亿美元建立一个新的、面积为 18580 平方米的“巨型实验室”的基础上,该实验室致力于使用各种冷却技术鉴定、测试和演示其数据中心组合。除了对该设施的投资,该公司宣布正在为其芯片的液浸冷却系统开发一个开放的参考设计。

为什么微软要把数据中心设在水下?数据中心制冷有多花钱?

数据中心和普通的电脑不同,发热量是十分巨大的,为了保证数据中心稳定运行,数据中心需要配置强大的散热系统,而散热系统需要耗费大量的电力。一个正常运行的数据中心,电力成本就要占到总成本的20%,而散热系统正常运行消耗的电力成本占到总耗电成本的40%左右,所以数据中心的散热成本是非常高昂的。而微软将数据中心设置在水下,可节省大量的电力成本,大幅提升数据中心的经济效益,另外减少了对于煤、石油、天然气等不可再生资源的消耗,更有利于环境的保护。

一个数据中心的成本中,电力成本占了20%左右,其中电力成本中的42%是用来散热的。因此,谷歌、facebook、IBM等 科技 巨头将数据中心建在了冰岛、芬兰等国家。微软为了减少数据中心的散热成本,尝试将数据中心建在水下。

数据中心制冷有多花钱?

根据IDC的统计,数据中心的平均使用年限是9年,一个数据中心的电力能耗成本占据了所有成本的20%。这些消耗的电能,大约有47%进入了服务器,是有效的能耗,而42%的被散热能耗消耗了。

这里了解一个数值,PUE(电能使用效率)是评价数据中心能源消耗的指标,计算公式为:

PUE=总体能耗/IT设备能耗

可以看出,这个数值越接近1,能源效率越高。

根据相关数据显示,我国新建的大型云计算数据中心的PUE值小于1.5。其中,制冷消耗的电力占据了服务器电力消耗相当大的比重。

微软的水下数据中心

微软的水下数据中心,由很多白色的钢桶组成,外表覆盖热交换器,内部是一个数据中心计算机架,里面加注了氮气。这种“海底胶囊”可以停留在海底长达5年的时间,期间不需要维护。

还要一点,它可以从海水运动中收获电能,而且这种海底胶囊散发的热量也很少,不会影响到海洋环境。

总之,随着云计算、大数据等新兴技术的发展,企业IT基础设施建设飞速发展,服务器机柜不断增加、机房动力系统、空调系统等设施不断增加,随之而来的时能源效率低,耗电量大,电费支出高等。如何能够降低PUE,是数据中心建设需要考虑的,相信未来会有更多的花式降温法。

数据中心放在水下,似乎解决了散热问题,可是投资大,维护困难,微软是不是“搬起石头砸自己的脚”,最终得不偿失呢?

图源来自NYTimes:

早在2014年,微软就有此设想,2015年微软将服务器塞进了一个“圆柱体的胶囊”,在10米深的海水里,时间超过了大家的预期。

之所以放入海底,真的能够带来好处吗?

不可否认:维修成本,故障突击都会对于微软有不小的影响。

在2018年,微软将Northern Lsles数据中心投入到苏格兰奥克尼群岛,并且使用风能潮汐能以及太阳能解决用电问题。

而在服务器中通过使用散热管,注入海水,完成冷却效果。

现在我们对于微软的这台水下服务器的表现如何还是会比较期待的,毕竟这确实有助于微软开创全新的散热模式,虽然维护和外壳耐久度都会成为问题。

其实,国内大部分企业将数据中心放在了贵州,就是看重贵州的均衡气候和电力资源等等,所以散热和电力确实是一个数据中心的难点。

关于微软公司在IT领域所获得的成就,想必大家也都了解,比如最让人耳祥能熟的就是windows系统和Surface笔记本电脑了,用户在使用这些产品的时候,会产生大量的数据(核心资产),所以微软就有必要建立数据中心,但是对于数据中心来说,也是由大型服务器组成的,所以它们在运转的时候,会产生大量的温度,而温度又是硬件的“第一杀手”,因此必须要解决散热问题!

曾经有数据表示,微软数据中心的 电力成本为20%,而热耗就占电力成本的42% ,所以说这个花费是巨大的,但把数据中心建立在水下,就可以通过专门的散热设备,来减少成本的支出了,而且是一劳永逸的事!

再比如腾讯公司的数据中心,为了减少成本的支出,就把它们建立在了贵州省贵安新区的两座山体上(预计存放30万台服务器),因为 山洞结构可以散热,有得天独厚的自然条件 (也是为了散热),总占地面积约为47万平方米,隧洞面积超过3万平方米,能塞下4个标准足球场还有富余。

微软要在苏格兰奥克尼群岛附近沉没一个像集装箱一样大的数据中心,不仅需要廉价的电力,免费的散热设备,还需要接近世界一半人口的居住地。建在这里的最大希望是,能够有一个真正低温且成本便宜的数据中心,运行更频繁且发生故障的次数更少。

更节省资源

为服务器建造潜水艇听起来可能很昂贵,但是考虑到总体拥有成本,其中大部分是前期准备,管理微软研究项目的本·卡特勒在接受采访时对数据中心知识说。他说:“我们认为该结构可能比今天的数据中心更简单、更统一。虽然所有这些都仍然是假设的,但是最终期望实际上可能会有成本优势,更便宜。”

将计算机置于水下并不是什么新鲜事,不仅对于Microsoft而言。海洋科学家已经做了很长时间了,但是还没有大规模地这样做。海洋工业在建造大型结构,冷却船舶发动机以及处理在水下表面堆积的藤壶方面具有丰富的经验。卡特勒说:“与人们几十年来在海洋中所做的事情相比,我们所做的事情相对温和。我们处于相对较浅的深度,而且这数据中心相对较小。”

供应链已基本到位

微软可以利用其硬件专业知识和供应链,用商品服务器填充水下数据中心。实际上,“ Northern Isles数据中心”中的12个机架,864个服务器和FPGA板是来自旱地上的Microsoft Azure数据中心。圆柱形外壳是由一家知名的海洋工程公司Naval Group制造的,如果这个想法得以流行和可实施,就可以批量生产和运输。

卡特勒说,时间框架和经济性与在陆地上建立数据中心大不相同。“不是建设项目,而是制造产品,它在工厂中制造,就像我们放入其中的计算机一样,现在我们使用标准的物流供应链将它们运送到任何地方。 然后还需要乘坐渡轮穿越英吉利海峡,穿越英国,再乘另一艘渡轮到奥克尼群岛,然后将其装在驳船上进行部署。

能够更快地部署不仅意味着更快地扩张,还意味着没有提前花钱。卡特勒说:“在某些情况下,我们需要18个月或2年的时间才能建立新的数据中心。想象一下,如果我只是将它们作为标准库存,那么我可以在90天内迅速将它们送到任何地方。现在资金成本有很大不同,因为不必像现在这样提前建造东西。只要我们处在这种模式下,我们的Web服务以及随之而来的数据中心都将呈指数级增长,那就是巨大的杠杆作用。”

停机也可以节省保修

在将所有服务器替换为新服务器之前,一次将数据中心停机5到10年与许多云服务器的生命周期没有太大区别,随着新硬件的出现,云服务器可能会重新用于不同的服务。五年的承诺意味着可以节省更多的预付款。

卡特勒指出:“如果还是维持旧的方案,保修成本可能很高。就我们而言,也许我们会把它退回给供应商,但这种维持不下去。”因为这些保修成本很高,每个组件供应商都必须保持所售组件的库存,以保证产品使用寿命。他解释说,英特尔可能每年都会推出一种新芯片,但是它必须保持五年来的库存。“就我们而言,一切麻烦都消失了。我们将其放到那里,我们就完成了任务。我们永远不会再找供应商说更换该磁盘驱动器,因为到了五年后,我们也不用管理这些东西。”

规模可大可小

尽管Orkney数据中心是单个模块,但Cutler设想将多个模块连接在一起以实现规模化,也许需要一个用于连接和配电的中央节点,将它们像常规数据中心中的机架排一样对待。容器间延迟将类似于大型数据中心网络中的延迟。一些较大的Azure数据中心相距一英里。

Microsoft数据中心中的每个机架顶交换机都连接到骨干交换机,这些骨干交换机在该行的所有机架上串扰。下一级,主干交换机彼此交叉连接。“这些东西之间可能有相当大的距离。如果我们在水中放很多,那就没什么不同了。”

在边缘部署中,单个模块可能是Azure Stack的理想选择,该Azure Stack可为越来越多地部署在海底的勘探石油和天然气钻井平台处理地震数据。

绿色资源潜力

一旦水下数据中心启动并运行,电力和冷却成本就会降低。Project Natick的第一个小得多的版本(Microsoft研究工作的代号)具有一个带有不同阀门的歧管,以使团队可以尝试不同的冷却策略。PUE为1.07(Microsoft最新一代数据中心的PUE为1.125)。据卡特勒估计,如果没有歧管,该成本将低至1.3。

另外,这一次没有外部热交换器。他说:“我们正在通过机架后部的热交换器将原海水吸入并再次排出。”他指出,这是用于冷却船舶和潜艇的相同技术。水流的速度应阻止藤壶的生长。该冷却系统可以应对非常高的功率密度,例如用于重型高性能计算和AI工作负载的装有GPU的服务器所需的功率密度。

北岛数据中心利用了欧洲海洋能源中心的潮汐发生器。Microsoft设想将海洋数据中心与这些离岸能源一起使用。但是未来的版本也可能拥有自己的发电能力。

“潮流是一种可靠的,可预测的东西;我们知道何时会发生。”卡特勒说。“想象一下,我们有潮汐能,我们有电池存储,因此您可以在整个24小时周期和整个月球周期内保持平稳行驶。”

代替备用发电机和装满电池的房间,Microsoft可以过量提供潮汐发电量以确保可靠性(例如,潮汐涡轮机由13台代替了10台)。“最终您会得到一个更简单的系统,该系统是完全可再生的,并且具有最小的占地面积。”

没有增加本地资源的负担

这种设备使用海洋供电和制冷的环境影响相对较小,这使得在更多地方部署数据中心变得更加容易。

现代数据中心的制冷更多地依靠水而不是电力。卡特勒解释说:“过去用于冷却的功率令人难以置信,随着时间的推移,我们已经能够将功率大幅降低。但是水被用来增强冷却效果。”

数据中心通常有一条通往城市供水的管道,这在发达国家的许多地方都可以,但在其他地方则没有。卡特勒和他的团队喜欢这样的想法:将数据中心带到发展中国家的某个地方,而不会对当地的水或电力供应施加任何限制。“对电力网没有压力,对供水没有压力,但是我们带来了更多的计算机资源。”

微软的海底数据中心就有点像谷歌在南极的数据中心,这些地处特殊地理环境的数据中心都有很多的优势,比如:

1、海底拥有足够大的发展空间和土地面积,在海底建设数据中心根本不用担心以往在陆地上建设数据中心遇到的种种问题。

2、节能节电,这应该是海底数据中心最大的优势,毕竟一座数据中心最大的运营成本就是电费,如果温度高还需要更多的散热空调产生的电费,但是在海底,不仅基础温度低,而且水冷散热也能大大降低数据中心的温度,所以把数据中心建在海底,对于微软的制冷成本可以大大降低,这也有利于客户。

3、运输成本低,海运是最廉价的运输方式,建设过程中物流成本较低。

4、很多人可能觉得海底数据中心维护起来很麻烦,还得潜水,但是实际上维护成本并没有想象的高,因为机房可以升出海面维护,并不需要潜水。

所以说,数据中心如今根本不需要在大城市或者发达地区建设,就像贵州大数据把机房放在山上,除了安全战略以外,海拔高的地方温度低,散热方便,而且还有便宜的水电可供使用,微软把数据中心放在海底也是处于类似的考虑,随着技术的不断成熟,未来在海底部署数据中心的公司也可能越来越多。

现在的众多的高 科技 企业都在做一个共同的新方向,就是在数据中心业务上将属于本企业的核心数据来说,都是将本企业的数据中心沉入海底,那么下面和大家一起来说一说为何这些高 科技 企业会做出这样的选择。

利用海水的低温来为数据中心来散文,从而能够减少电能的消耗,很多用户可能对于这个原因是比较模糊的,认为这些高 科技 企业的收入都是非常的高的,而对于这些电能的资金消耗又会有怎么样的在乎的,其实这个还是有一定的理由的,因为这些庞大的数据中心所能够产生的热量是非常的大的,如果是建设在陆地上的话,那么必须要有一个专门为之散热的装备。

而且这些专门散热的装备来说,其实每年所要消耗的电能来说,其实无疑是巨大的,即便是对于收入很多的高 科技 企业来说,其实一笔不菲的支出,所要想办法能够减少支出,也是这些企业要想的办法。

曾经有这样的一组数据说,这类型的数据中心来说,其总共包含有投资成本和运营成本,还有重要的就是能源成本,而其中的电力损耗的成本就需要达到所有成本的20%左右的份额,所有这就是为何众多高 科技 企业将自己的数据中心放在水中的重要原因。

从这方面就能够看到,其实企业的数据中心的制冷消耗的电力所占据的比重也是很大的,而将数据中心放到水中,一方面能够降低电能的耗损,另外一方面还能够使得自己的数据中心更加安全。

最后,对于说高 科技 企业将自己的数据中心放到水中的这样的做法来说,在这里给大家做一个总结,其实本质的原因就是为了能够给企业节省费用,还有一个方面的原因就是更加能够保护器安全性,那么大家还有什么不同的看法,可以在下方留言,咱们一起探讨!

微软每天都要运行大量的数据,所以数据中心就是微软的大脑。随着计算能力的提高和运营速度的加快,公司的数据中心可以正常运行。良好的散热条件是非常必要的。除了做好热处理工作外,还必须考虑降低能耗和降低企业成本。

研究发现,运行一个单一的数据至少占电力成本的20%,而热耗散占电力成本的42%。如果你每年投入资金来处理操作数据所产生的热量,其成本无疑是巨大的。散热不好,机器会出故障,整个系统会瘫痪,散热是必要和重要的。

让我们看看一些最常见的散热方法,风冷,液体冷却,半导体和化学制冷。其中,空冷和液冷具有成本低、使用方便、半导体和化学制冷成本高、大量使用成本高、耗电量大等优点。与公司利润的目的相冲突。因此,最好选择一种低成本的散热方式。在液体冷却的情况下,水是最好的冷却工具。水的蒸发吸收热量,这是众所周知的物理原理,也就是说,微软把数据中心放在水里,而不是电里来散热。同时带走大量的热量,节能环保,操作简单方便。

作为冷却工艺这碗饭吃了快20年的专业人士,毫不客气地说,专家在数据中心冷却方面过于幼稚,当然也包含微软与脸书在内。

一、对数据安全的恐惧,导致能源浪费:马云提到,阿里数据中心停用一分钟可能有几个亿的损失。

实际服务器核心发热件正常工作温度是80度,即使按60度控制,仍然远远达不到强制制冷的工艺条件。这个温度是自然冷能就可以控制的范围。自然冷能的合理能耗小于发热量的2%,对应PUE为1.02。再低已经没有意义,不如在服务器方面挖潜。服务器芯片之外降耗10%不存在任何技术问题。

二、沉入海底

践行“碳中和”理念 数据中心液冷技术受瞩目

全国两会期间,“碳达峰”“碳中和”稳居能源领域的“C位”话题,不仅被首次写进《政府工作报告》,还特别在此项工作中提及,要促进新型节能环保技术、装备和产品研发应用,培育壮大节能环保产业。

在数字经济和万物互联的时代,海量数据的计算与处理需要不断扩大数据中心的基础建设规模,由此也带来了能耗激增的问题。据《中国“新基建”发展研究报告》,到2025年,全球数据中心将占全球能耗的最大份额,高达33%。而在国内,全国数据中心的耗电量已连续八年以超过12%的速度增长,未来占 社会 总用电量的比例将持续增长。

此外,大量数据吞吐和运算使得作为人工智能、大数据等新兴技术“大脑”的数据中心面临着前所未有的能耗和散热挑战。科智咨询发布的《2019-2020中国IDC产业发展研究报告》指出,随着数据中心计算力的提高,对于新建的数据中心而言,最大的资金投入不是建筑本身,而是保证电力供应的设备成本以及机房制冷成本。因此降低冷却耗能,并推进数据中心低碳运转是践行“碳中和”理念的关键一环。

业内普遍认为,液冷技术是降低数据中心能耗的最可靠与可行的方案。中国信息通信研究院云计算与大数据研究所所长何宝宏指出,高密度计算正促使数据中心液冷技术兴起,液冷不仅是制冷方式的改变,还可能变革整个数据中心生态。

因此,凭借有效降低能耗、减少故障率和突破了环境局限等优势,液冷技术已经成为全球数据中心发展的重要技术趋势。目前,IBM、谷歌、英特尔等国际巨头早已纷纷在该领域展开布局,在国内,以网宿 科技 、华为、中科曙光为代表的 科技 公司也积极投入了液冷的技术研发与市场拓展。

液冷是指使用液体作为热量传输媒介,为发热部件进行换热,进而带走热量的技术,并非像风冷那样间接通过空气制冷。液体传导热能效果更好,是空气的25倍,温度传递效果更快、更优。同时,由于液体的比热容大,在吸收大量的热量后自身温度不会产生明显变化,故而能够稳定CPU温度。与风冷系统相比,液冷能节省约30%能源,有效降低能源消耗比,可以将PUE(一种评价数据中心能源效率的指标)降到1.05,实现绿色数据中心的要求。此外,相比空气而言,液体比热容不受海拔与气压影响,因此液冷数据中心在高海拔地区仍然可以保持较高的散热效率。

更为重要的是,采用液冷数据中心可以更好的收集余热,并创造出可观的经济价值。这是因为,数据中心的不间断运行往往能产生巨大热能,传统的风冷设备一般是将热量直接排到大气中,但液冷数据中心则能以液体为载体,直接通过热交换接入楼宇采暖系统和供水系统,满足居民供暖和温水供应等需求。这不仅节约了能源,还能为数据中心创造附加值。

网宿 科技 副总裁胡世轩称,液冷技术是突破数据中心节能瓶颈的有效途径,很好适应了中国当下的“碳中和”理念,代表了未来数据中心绿色节能的主要发展方向。

经过多年的研发与 探索 ,液冷技术的应用也日益成熟。例如,网宿 科技 与大象融媒合作,根据所需,为其量身定制开发了集融媒指挥系统和全媒体内容生产系统为一体的融媒微型液冷数据中心,有效解决了媒体融合与转型过程中,技术支撑平台对空间小、轻量级、能耗低、便捷快速、融媒体功能全的需求。

“网宿是国内最早布局绿色环保液冷数据中心产品线的企业,拥有丰富的落地经验,在行业具有良好口碑,这些优势是我们前期市场调研中所看重的。”大象融媒相关人员说。据介绍,网宿 科技 拥有的液冷核心专利30多项,从目前参与实施的客户方案来看,液冷技术在数据中心的散热实践中得到了良好认可。

“未来,网宿 科技 将持续投入液冷技术的研发与应用,帮助更多数据中心实现节能降耗,共同迎接‘碳中和’时代。”胡世轩说。

(编辑 张伟)

重磅!制程工艺变天,“纳米数字游戏”里的“猫腻”要被终结了

一直以来,制程节点都是衡量工艺演进的重要数字。一串看似无规律的数字,实际上背后隐含的是摩尔定律所划分的晶体管栅极最小线宽。

但摩尔定律每两年翻一番速度之下,早在1997年栅极长度和半截距就不再与这种节点名称匹配。更何况行业已逼近1nm的极限,行业需要更加科学和更加精密的表述形式。

日前,英特尔CEO帕特·基辛格(Pat Gelsinger)重磅宣布公司有史以来最为详细的制程技术路线图,不仅宣布在2024年进入埃米(Ångstrom)时代,还宣布了将以更加科学先进的方式度量制程节点。除此之外,与之相关的突破性架构和技术以及未来的规划逐一被披露。

在制程节点方面,帕特·基辛格宣布将会以每瓦性能作为关键指标来衡量工艺节点的演进,这是因为对于半导体产品来说,PPA(performance,power and area,性能、功耗、面积)是非常重要的指标。

按照目前的进度来说,英特尔在去年架构日正式宣布10nm SuperFin,并在后续新品中使用。展望后续,将会以全新的方式命名。

Intel 10nm SuperFin: 这项技术是在2020年架构日正式宣布的,同年7月在Tiger Lake中使用;后续2021年至强Ice Lake和Agilex FPGA新产品中也已开始使用。

彼时英特尔宣布的SuperFin技术,是一项媲美制程节点转换的技术。SuperFin其实是两种技术的叠加,即Super MIM(Metal-Insulator-Metal)电容器+增强型FinFET晶体。从参数上来看,增强型FinFET拥有M0和M1处关键层0.51倍的密度缩放、单元更小晶体密度更高、通孔电阻降低2倍、最低的两个金属层提高5-10倍电迁移。

Intel 7: 英特尔此前称之为10nm Enhanced SuperFin,即对SuperFin技术继续打磨。Intel 7将会亮相的产品包括2021年面向客户端的Alder Lake以及 2022年第一季度面向数据中心的Sapphire Rapids。

据介绍,通过对FinFET晶体管优化,每瓦性能对比此前发布的10nm SuperFin提升约10% - 15%。优化方面包括更高应变性能、更低电阻的材料、新型高密度蚀刻技术、流线型结构,以及更高的金属堆栈实现布线优化。而在本次宣布中英特尔彻底删除掉“nm”,改为综合PPA评定的每瓦性能。

Intel 4: 英特尔此前称之为Intel 7nm。Intel 4将于2022年下半年投产,2023年出货,产品包括面向客户端的Meteor Lake和面向数据中心的Granite Rapids。

需要注意的是,Intel 4是首个完全采用EUV光刻技术的英特尔FinFET节点,EUV采用高度复杂的透镜和反射镜光学系统,将13.5nm波长的光对焦,从而在硅片上刻印极微小的图样。相较于之前使用波长为193nm的光源(DUV)的技术,这是巨大的进步。与Intel 7相比Intel 4的每瓦性能提高了约20%。

Intel 3: Intel 3继续受益于FinFET技术,Intel 3将于2023年下半年开始生产相关产品。

这是一个比通常的标准全节点改进水平更高的晶体管性能提升。Intel 3将实现更高密度、更高性能的库;提高了内在驱动电流;通过减少通孔电阻,优化了互连金属堆栈;与Intel 4相比,Intel 3在更多工序中增加了EUV的使用。较之Intel 4,Intel 3将在每瓦性能上实现约18%的提升。

Intel 20A: PowerVia和RibbonFET这两项突破性技术正式开启了埃米时代,Intel 20A预计将在2024年推出。所谓Intel 20A中的“A”代指埃米,1埃米Angstrom =10^-10,1纳米=10埃米。

根据介绍,PowerVia是英特尔独有、业界首个背面电能传输网络,它消除晶圆正面的供电布线需求,优化信号布线,同时减少下垂和降低干扰。RibbonFET是英特尔对于GAA晶体管的实现,是公司自2011年率先推出FinFET以来的首个全新晶体管架构,提供更快的晶体管开关速度,同时以更小的占用空间实现与多鳍结构相同的驱动电流。

Intel 18A: 这仅仅是一种前瞻性说法,未来英特尔将会继续提升RibbonFET,Intel 18A是面向2025年及更远的未来的。此时,行业将继续向更小的埃米提升。

需要特别注意的是,英特尔还将会定义、构建和部署下一代High-NA EUV,并有望率先获得业界第一台High-NA EUV光刻机。英特尔正与ASML密切合作,确保这一行业突破性技术取得成功,超越当前一代EUV。

通过观察路线图,实际上Intel制定的发展路线是围绕晶体管结构进行转变的。在步入埃米时代Intel 20A之前,FinFET(Field-effect transistor)工艺仍然拥有极大的优化空间,在步入埃米时代后直接转向GAA(Gate-All-Around)的RibbonFET。此前台积电也曾表示,决定仍让3nm制程维持FinFET架构。

根据公开资料显示,时下先进制程技术方面,使用的均为FinFET(Field-effect transistor)技术,7nm是FinFET的物理极限,但得益于深紫外(DUV)和极紫外(EUV),制程得以突破7nm、5nm。因此,不难看出Intel的想法与行业是一致的,在Intel 4时候完全引入EUV光刻技术,继续让FinFET结构发扬光大。

当然,英特尔的FinFET与行业不同之处在于叠加了Super MIM(Metal-Insulator-Metal)电容器,变为SuperFin技术。该技术由一类新型的“高K”( Hi-K)电介质材料实现,该材料可以堆叠在厚度仅为几埃厚的超薄层中,从而形成重复的“超晶格”结构。 这是一项行业内领先的技术,领先于其他芯片制造商的现有能力。

通过这样的叠加和对FinFET结构的继续优化,可以支撑制程节点转换到等效2nm节点。但FinFET毕竟有极限,在制程到达埃米级别之时,英特尔选择的也是GAA结构。学术界普遍认为GAA是3nm/2nm之后晶体管的路,厂商也有类似GAAFET的发布。

英特尔将自己实现的GAA称之为RibbonFET,这是一种将栅极包裹在源极和漏极的工艺。而从此时开始,Intel也将会引入更高精度的EUV技术,称之为High-NA EUV,帮助实现埃米级别的提升。值得一提的是,High NA EUV光刻机可谓是炙手可热的产品,其目标是将制程推进到1nm以下,而传言中该光刻机成本甚至超过一架飞机,大约3亿美元。

为什么英特尔执意要把数字放到埃米级别?从英特尔CEO的话中我们可以窥探一二,帕特·基辛格说:“摩尔定律仍在持续生效。对于未来十年走向超越‘1nm’节点的创新,英特尔有着一条清晰的路径。我想说,在穷尽元素周期表之前,摩尔定律都不会失效,英特尔将持续利用硅的神奇力量不断推进创新。”

英特尔既是摩尔定律的发源地,也是忠实的执行者。按照摩尔定律原本的划分方式2nm到1nm之间实质上还是拥有很大的发掘空间,而到1nm之后行业也需要一种全新的划分方式来定义制程节点。此前,行业一直在广泛讨论硅极限的1nm之后的世界,英特尔则直接给出答案——埃米。

英特尔将制程节点变为每瓦性能的测量方式实际上也是有过先例的。在笔者看来,这种度量方式更加客观,更能让行业进行客观的性能对比。

另外,笔者认为,这种转变也是为了此前帕特·基辛格宣布的IDM 2.0的推进做准备。IDM 2.0中,英特尔不仅要开放代工业务,也将引入外部代工,以全新的制程节点测量方式能够方便客户进行横向对比。

资料显示,2017年英特尔引入了晶体管每平方毫米以及SRAM单元尺寸作为客观的对比指标,台积电7nm为90 MTr/mm2,而英特尔的10nm为100 MTr/mm2,这也就能解释为什么业界一直传言英特尔的10nm和7nm性能相当。

此前,笔者也曾撰文评论过行业存在的“纳米数字 游戏 ”现象。虽然制程节点在发明之初,代指的还是栅极长度,但其实从1997年开始,栅极长度和半节距与过程节点名称不再相匹配,之后的制程节点实际意义上不再与之相关。

代工厂在晶体管密度增加很少情况下,仍然会为自己制程工艺命名新名,但实际上并没有位于摩尔定律曲线的正确位置。

台积电营销负责人Godfrey Cheng其实曾经也亲口承认,从0.35微米开始,工艺数字代表的就不再是物理尺度,而7nm/N7只是一种行业标准化的属于而已,此后还会有N5等说法。同时,他表示也确实需要寻找一种新的语言来对工艺节点进行描述。

笔者认为,英特尔在率先使用这种度量方式之后,能够有效敦促行业形成标准规范。诚然,英特尔并没有强制要求行业进行统一度量,但英特尔仍然是以开放的态度愿意将这种规则分享于外界,让摩尔定律得以在正确的道路上发展。

当然,不容忽视的是,封装技术正在成为摩尔定律的新拐点。一直以来,英特尔都将制程和封装放在一起,此次也有全新的封装技术被披露。

2.5D封装方面,英特尔宣布下一代Sapphire Rapids服务器 CPU将成为采用EMIB(嵌入式多芯片互连桥接)批量出货的首个英特尔 至强 数据中心产品。根据解释,这是业界首次通过EMIB将两个光罩尺寸的器件连接在一起,最终让器件性能和单片处理器是一样的。另外,英特尔还宣告了下一代EMIB的凸点间距将从55微米缩短至45微米。

3D封装方面,Foveros将会开创下一代Foveros Omni技术以及对Foveros Omni的补充技术Foveros Direct。Foveros Omni之前名为ODI(Omni-Directional Interconnect),Foveros Direct之前名为Hybrid Bonding技术。当然本次宣布并不只是名字的统一,相关技术也将会持续推进。

从技术角度来看,Foveros Omni允许裸片分解,将基于不同晶圆制程节点的多个顶片与多个基片混合搭配,通过高性能3D堆叠技术为裸片到裸片的互连和模块化设计提供了无限制的灵活性。Foveros Direct则实现了向直接铜对铜键合的转变,可以实现低电阻互连,并使得从晶圆制成到封装开始,两者之间的界限不再那么截然。

封装虽然和摩尔定律没有直接关联,但却又影响着摩尔定律的发展。这是因为封装能够减少芯片间的凸点间距,增大凸点密度。整体的密度越大,实际上也代表着单位面积上晶体管数量越密。英特尔一直洞察到这种关系,所以在此前宣布的六大支柱中是“制程&封装”这种合并的关系。

除了技术上的宣发,英特尔宣布了两个重磅的合作消息:AWS将成为首个采用英特尔代工服务(IFS)先进封装解决方案的客户,高通将成为采用Intel 20A先进制程工艺的客户。

远望未来,制程和封装技术将继续飞扬。在穷尽元素周期表之前,摩尔定律都不会失效, 探索 之路依然长路漫漫。