新闻中心

kaiyun.com兰说念尔旨趣已被实考诠释-开云(中国)Kaiyun·官方网站
发布日期:2024-05-19 05:05    点击次数:72

今天咱们所说的东说念主工智能(AI),主要指的是生成式东说念主工智能。而其中一大部分,是基于废话语模子的生成式东说念主工智能。

它们需要大限制的数据中心来练习和推理。这些数据中心由遍及事业器组成,事业器虚耗的电能绝大部分滚动成了热能,终末通过水冷系统开释出来。是以也不错说,AI的物理硬件是个强大的“电滚水器”。

这个说法听起来好像有点奇怪。咱们皆知说念,事业器是一种电子筹划机,而筹划机中处理的是信息。信息和能量又有什么关系呢?

还真有。

处理信息需要虚耗能量

1961年,在IBM公司使命的物理学家拉尔夫·兰说念尔(Rolf Landauer)发表了一篇论文,惨酷了其后被称为“兰说念尔旨趣”(Landauer's Principle)的表面。这一表面合计,筹划机中存储的信息发生不可逆的变化时,会向周围环境泄气少量点热量,其泄气的热量和筹划机那时所处的温度联系——温度越高,泄气的热量越多。

兰说念尔旨趣联贯起了信息和能量;更具体地说,联贯到了热力学第二定律上。因为逻辑上不可逆的信息处理操作,也就意味着褪色了信息,这会导致物理天下中熵的增多,从而虚耗能量。

这一旨趣自惨酷以来遭逢过不少质疑。然而近十几年来,兰说念尔旨趣已被实考诠释。2012年,《当然》杂志发表了一篇著述,预计团队初度测量到了一“位”(bit)数据被删除时开释的微量热量。其后的几次零丁践诺,也皆诠释了兰说念尔旨趣。

是以,处理信息是有能量老本的。

当今的电子筹划机在筹划时实质虚耗的能量,是这个表面值的数亿倍。科学家们一直在奋发寻找更高效的筹划门径,以缩短老本。不外从现时的预计进展情况来看,也许只好的确的室温超导材料能平凡应用于筹划征战时,这个能耗才有可能离兰说念尔旨趣所形容的表面值近一些。

AI大模子照实需要遍及筹划。它的使命经过大致不错分为练习和推理两个阶段。在练习阶段,起首需要累积和预处理遍及的文本数据,用作输入数据。然后在合适的模子架构中启动化模子参数,处理输入的数据,尝试生成输出;再左证输出与料思之间的相反,反复退换参数,直到模子的性能不再权臣耕作放纵。而在推理阶段中,则会先加载如故练习好的模子参数,预处理需要推理的文本数据,再让模子左证学习到的话语限定生成输出。

不管是练习照旧推理阶段,皆是一连串信息重组经过,也通常受命兰说念尔旨趣。而咱们也不难推知,模子的参数目越大,需要处理的数据越多,所需的筹划量也就越大,所虚耗的能量也就越大,开释的热量也就越多。

只不外,这只是AI耗电中微不及说念的一小部分。更大的虚耗来自另一个咱们更熟悉的物理定律:焦耳定律。这就要从集成电路提及了。

更“大头”能耗来自电流

今天的电子筹划机征战在集成电路的基础上。咱们时常把集成电路叫作念芯片。每个芯片中,皆有好多晶体管。

不严格地形容,晶体管不错观点成渺小的开关。这些开关串联或者并联在一说念,就不错扫尾逻辑运算。“开”和“关”暗示两种现象,也即是所谓的1和0,这即是筹划的基本单元“位”。它是筹划机二进制的基础。筹划机通过快速编削电压,来拨动这些开关。

编削电压,需要电子流入或流出。而电子流入流出,就组成了电流。又因为在电路中老是有电阻,就产生了热能。焦耳定律告诉咱们,产生的热量与电流的平常成正比,与导体电阻成正比,与通电时辰成正比。

集成电路技艺发展到今天,芯片中的晶体管如故变得极为渺小。是以,单个晶体管所产生的热量并不会太高。但问题是,芯片上的晶体管实在是如故多到了常东说念主无法思象的进度——比如,在IBM前几年发布的等效2纳米制程芯片中,每平常毫米面积上,平均有3.3亿个晶体管。再小的热量,乘上这个限制,效果一定格外可不雅。

一个可能让东说念主大跌眼镜的根由根由事实是,今天芯片单元体积的功率,比太阳中枢多出好几个数目级。典型的CPU芯片功率或者是每立方厘米100瓦,即每立方米1亿瓦;而太阳中枢的功率只好每立方米不到300瓦。

在OpenAI练习废话语模子GPT-4时,完成一次练习需要约三个月时辰,使用简短25000块英伟达A100 GPU。每块A100 GPU皆领有540亿个晶体管,功耗400瓦,每秒钟不错进行19.5万亿次单精度浮点数的运算,每次运算又触及到好多个晶体管的开关。

容易算出,只是是这些GPU,一次练习就用了2.4亿度电。这些电能简直全部滚动成了热能,这些能量不错将简短200万立方米冰水——或者是1000个奥运会次第拍浮池的水量——加热到容许。

为什么AI需要用这样多的强硬GPU来练习?因为废话语模子的限制实在太大。GPT-3模子领有1750亿参数,而据臆测,GPT-4领有1.8万亿参数,是GPT-3的十倍。要练习这种限制的模子,需要在大限制数据集上反复迭代,每一次迭代皆需要筹划和退换其中数十亿、数百亿乃至数千亿个参数的值,这些筹划最终会进展为晶体管的开开关关,和集成电路中细细的电流——以及热量。

能量无法创造也无法消除,它只可从一种神情滚动成另一种神情。关于电子筹划机来说,它最主要的能量滚动样式,即是从电能滚动成热能。

废话语模子亦然如斯。它对电能和冷却水的需求,正带来越来越严重的环境问题。

回收“电滚水器”中的热量?

就在前几天,有微软公司的工程师说,为了练习GPT-6,微软和OpenAI建造了强大的数据中心,将会使用10万块英伟达H100 GPU——性能比A100更强,虽然功耗也更大——然而,这些GPU不可放在淹没个州,不然会导致电网负荷过大而崩溃。

AI发展带来的动力枯竭问题,如故脱手浮现。在本年的达沃斯天下经济论坛上,OpenAI的CEO山姆·阿尔特曼(Sam Altman)合计,核聚变可能是动力的发展标的。但要开发出的确可用的核聚变技艺,可能还需要一些时辰。

水的问题亦然一样。以前几年,那些在AI大模子鸿沟先行一步的大企业们,皆濒临水虚耗大幅增长的阵势。2023 年6月,微软公司发布了2022年度环境可握续发展讲解,其顶用水一项,有高出20%的权臣增长。谷歌公司也雷同。

有预计者合计,AI的发展,是这些科技巨头用水量剧增的主要原因——要冷却放荡发烧的芯片,水冷系统是最常见的遴荐。为AI提供硬件基础的数据中心,如淹没个强大的“电滚水器”。

若何让这些消散的热能不至于白白蹧跶?最容易思到也容易扫尾的,是热回收技艺。比喻说,将数据中心回收的热量用于提供民用滚水,冬季提供民用采暖。当今有一些企业如故入部下手在回收废热再应用了,举例中国移动哈尔滨数据中心、阿里巴巴千岛湖数据中心等。

这或者也算是一种解法,但并不可从根蒂上管理问题。AI产业的发展速率之快,在东说念主类历史上莫得任何产业能与之比拟。均衡AI技艺的发展与环境的可握续性,可能会是咱们畴昔几年的弥留议题之一;技艺起首和动力虚耗之间的复杂关系,从来莫得这样急迫地出当今东说念主类眼前。

本文来自微信公众号:返朴 (ID:fanpu2019),作家:猛犸,本文受科普中国·星空筹划面目扶握,出品:中国科协科普部,监制:中国科学技艺出书社有限公司、北京中科银河文化传媒有限公司

海量资讯、精确解读,尽在新浪财经APP

相关资讯