当今最强大的用于AI工作负载的新型数据中心GPU的功耗高达700瓦。如果年利用率为61%,那么每台GPU每年的耗电量约为3,740,520Wh或3.74MWh,这引发了人们对电力可用性和环境影响的担忧,尤其是当我们缩小范围并查看去年售出的GPU总数时。去年,
Nvidia售出了376万台数据中心GPU,占据了98%的市场份额。再加上英特尔、AMD和其他参与者剩余的2%,2023年将有超过3,836,000台GPU交付给数据服务器。
将该数字乘以去年数据中心GPU的总交付量,您将得到一年的用电量为14,348.63GWh。具体来说,美国家庭平均每年使用10,791千瓦时,这意味着去年销售的数据中心GPU消耗的电量相当于130万户家庭每年使用的电量。如果我们从州一级来看,加州能源委员会报告称,该州2022年的发电量为203,257吉瓦时,这意味着数据中心GPU消耗了该州年发电量的约7%。
但是,您应该记住,这些只是数据中心GPU。这里的数据不包括数据中心正常运行所需的CPU、冷却系统和其他设备。例如,大多数RTX4090建议至少使用850瓦的电源,有些需要1,000瓦甚至1,200瓦。如果按照最低标准,去年建造的服务器和数据中心每年需要超过25吉瓦时。这些数字甚至不包括2022年及更早的数据中心,也不考虑今年上线的更多数据中心。
行业分析师估计,到2028年,数据中心GPU市场将同比增长34.6%,这意味着我们可能会在未来几年看到更多的数据中心GPU推出。此外,Nvidia的下一代AIGPU预计将比目前的700瓦H100消耗更多的电力。即使数据中心计算机在未来几年保持其功耗不变(它们不会),数据中心的电力需求也应该随着市场的增长成比例增加。数据中心
前所未有的崛起引发了人们对我们电力基础设施的担忧。事实上,美国政府已经在与科技公司就他们的AI电力需求进行谈判,特别是因为这些新的数据中心可能会给电网带来过度压力。Meta创始人马克·扎克伯格甚至表示,有限的电力将制约AI的增长,尤其是Enerdata指出,过去十年全球电力产量每年仅增长2.5%。
然而,科技公司并没有对这个问题视而不见。微软传统上是一家软件公司,甚至正在考虑为其数据中心投资小型模块化核反应堆。这一点尤为重要,因为它与OpenAI合作打造了一台价值1000亿美元的人工智能超级计算机,这肯定需要大量电力。
人工智能在我们数据驱动的社会中的兴起意味着我们需要大量电力来满足我们的计算需求。此外,我们不能忘记其他也需要大量电力的新兴技术,比如电动汽车。除非我们找到一种方法来开发出能够提供更多电力同时消耗更少电力的(和电机),否则我们很可能不得不增加更多的发电设施并升级支持基础设施以将它们输送到需要的地方。