2024年的英伟达GTC大会在不久前结束,这次大会上英伟达仍然不负众望,带了很多硬核科技产品,为与会者和关注大会的人士带来了惊喜。
在美国当地时间3月18日,英伟达CEO黄仁勋在GTC 2024开幕式演讲中宣布了最新的Blackwell架构和最强的AI芯片GB200。随后,全球首个人形机器人通用基础模型“Project GR00T”也在大会期间发布,黄仁勋还与新款人形机器人计算机Jetson Thor和一对来自迪士尼研究公司、由英伟达研发的小型机器人进行互动。
为什么芯片制造商英伟达不再以售卖GPU为主要业务,转而开辟数据中心市场?建立数据中心有何魅力?
什么是数据中心?
数据中心指的是提供大规模计算、存储和网络资源,以支持企业和组织处理与存储大量数据的地方。数据中心通常包括大量的服务器、存储设备、网络设备和其他相关的硬件和软件设施。数据中心是为了满足不同规模企业和组织的IT需求而存在的,包括云计算服务提供商和近年来兴起的人工智能企业等。
为什么数据中心市场前景广阔?
黄仁勋接受采访时指出,价值2500亿美元的全球数据中心市场仍在以每年20%至25%的速度增长,英伟达所处市场的机会在1万亿到2万亿美元之间。为什么英伟达CEO如此肯定数据中心市场的发展前景广阔,一意孤行押注数据中心赛道?
其实黄仁勋将英伟达未来的发展机会建立在数据中心市场之上的原因是有迹可循的,当前市场的对数据中心云服务的需求的确在高速增长。
首先是越来越多的企业和组织开始或正处于数字化转型的过程中,需要处理和存储大规模的数据。数据中心为这些企业和组织提供了强大的计算和存储能力,帮助其进行数据分析、业务智能和决策支持,促进业务发展和创新。
其次是云计算服务的快速发展,云服务提供商(例如阿里云、谷歌云、靠谱云等)需要大规模数据中心来支持其服务,包括弹性计算、存储、数据库、人工智能等。大数据技术需要强大的数据处理和分析能力,数据中心为其提供了必要的基础设施。以靠谱云为例,该企业在全球30多个国家构建了150多个数据中心和50多个城市边缘节点,成为众多互联网公司的云服务合作伙伴。
再者是近年来兴起的人工智能和机器学习领域,推动了数据中心市场的增长。人工智能模型推理需要大规模的计算资源,应用落地的过程更是需要大量的算力资源推动,数据中心为其提供了合适的硬件和软件环境,支持各种复杂的机器学习和深度学习任务。
就在去年AI领域的先锋企业OpenAI被曝出正从中东地区筹集总计高达7万亿美元的资金,以支持OpenAI的一项半导体计划。正是由于人工智能模型训练和推理对算力的大量需求,促使了OpenAI构建强大的算力设施和数据中心的想法,以解决AI芯片短缺的问题。
GPU和数据中心云服务有何不同?
购买GPU意味着用户将拥有这块图形处理器,可以将其安装在个人电脑或服务器中进行计算和处理任务;使用数据中心是指将任务委托给数据中心供应商进行处理,用户没有 GPU 或数据中心的所有权,但拥有规定时间内的使用权。
相对于购买GPU,数据中心云服务更适合大规模的计算需求。GPU通常用于个人电脑、工作站、小型服务器,适合处理较小规模的计算任务。而数据中心通常依靠大规模的服务器群,提供大规模的计算资源,适合处理大规模数据、高性能计算等任务。以算力云(算力猴/算力x)平台为例,算力云依托强大的数据中心,为人工智能企业训练和推理模型提供高性能计算资源。
购买GPU需一次性支付相应的成本,用户可以拥有GPU并使用它进行计算任务,但这也意味着需要承担维护和更新的成本;使用数据中心则是一种按需付费的方式,用户只需支付自己实际使用的计算和存储资源,可以根据需求灵活调整。
近年来人工智能正迅猛发展,以肉眼可见的速度改变世界。大模型遍地开花,掀起了算力资源的需求爆发式增长。根据英伟达的消息,使用单个Tesla架构的V100 GPU对1746亿参数的GPT-3模型进行一次训练,需要用288年时间。GPU资源的大量需求,必然导致算力成本上升。这意味着,未来许多人工智能企业可能会因为负担不起GPU的购买费用,转向寻求拥有强大数据中心的企业按需租用算力的形式发展自身的人工智能技术。