人工智能行业是当今世界最具前景和活力的领域之一。随着技术的不断进步,人工智能已渗透到各个行业,为社会带来了巨大的变革和发展机遇。

2024年3月初,英伟达CEO黄仁勋在斯坦福大学演讲中指出,目前大约有1000万人因为知道如何编程而有了工作,而其他80亿人则被远远甩在了后面。黄仁勋表示:如果对「像人类一样思考的计算机」的定义是通过人体测试能力,那么AGI将在五年内到来,并在五年后通过人类测试。

OpenAI CEO Sam Altman同样也坚定地认为AGI将在5年左右实现。到那时AI能完成营销人员、策略规划人员和创意专业人员95%的工作。

虽然AI模型已经在飞速发展,但最近的一个大问题已经让人揪心:它们实在太耗电了!就拿ChatGPT来举例,它每日的耗电量已超过50万度,是普通家庭的1.7万倍。

AI浪潮下,数据中心能耗激增,未来电力供应能否跟上?

马斯克也在某次的采访中表示:限制AI发展的将是电力和降压变压器的短缺。

AI计算的瓶颈是可以预见的……一年前,短缺的是芯片。

下一个短缺将是电力。当芯片短缺缓解之后,明年可能就会出现电力将不不足以运转这些芯片。然后,很容易预测下一个短缺将是降压变压器。

有一个不是那么好笑的笑话,未来运行Transformer的变压器将出现短缺。

AI浪潮下,数据中心能耗激增,未来电力供应能否跟上?

算力云(suanlix)平台已在甘肃、福建、广东、香港区域,上架多款英伟达系列显卡包括RTX2080Ti、RTX3080、RTX3090、RTX4090等。为中小企业和个人用户提供“用得起”的高性能、高性价比的算力资源,致力于成为“最具性价比”的算力租用平台。不仅支持分钟计费,还支持包月计费。

AI费电这件事,搞的大家人心惶惶。上周,在伦敦举行的突破能源峰会上,比尔盖茨对当前 AI 系统导致能源消耗加快的问题发起了“辩护”,认为该技术最终将抵消其大量电力消耗。

AI浪潮下,数据中心能耗激增,未来电力供应能否跟上?

比尔·盖茨敦促环保人士和政府“不要过分担心与关注”运行新的生成式人工智能系统所需的大量电力,微软等大型科技公司正竞相投资数百亿美元建设庞大的新数据中心。

他表示,数据中心将导致全球用电量增长2%至6%。

在今年 5 月,微软承认自 2020 年以来,其温室气体排放量增加了近三分之一,很大程度上是由于建设数据中心导致的。同时,美国电力研究所表示,数据中心可能消耗至多9%的美国发电量,是目前用电量的两倍多。

但比尔盖茨也表示,“科技公司愿意支付溢价,帮助提升绿色能源产能。”

也就是科技公司在寻求新的电力来源时,将为清洁能源支付“绿色溢价”,即更高的价格,这有助于推动其开发和部署。比尔盖茨还透露了自己创立的“突破性能源集团”就在大力支持可持续能源和其他技术的发展,目的只有一个:减少温室气体排放。

AI浪潮下,数据中心能耗激增,未来电力供应能否跟上?

但是,美国能源部在4月份的一份报告称,AI “有望在不久的将来成为美国数据中心相关负荷增长的最大驱动力”。显然,这与比尔·盖茨的看法相左。

目前,包括微软、亚马逊和谷歌在内的大型科技集团已提出计划,斥资数百亿美元在世界各国建设运行 AI 系统所需的计算基础设施。但是,电力供应方面的限制已经给寻求建立新技术的公司带来了挑战。

「转型所需的绿色电力数量不会以我们需要的速度出现。」

比尔·盖茨称,预计到2030年,到2050年实现净零排放的全球目标很可能无法实现,他认为「再过10年或15年可能更现实」。

以上是算力云平台带来的内容,关于AI发展是否将会带来电力短缺的问题,你怎么看?欢迎评论区留下你的看法。