随着AI应用场景的不断扩展,计算能力的需求急剧上升,超额的算力支出对任何一家人工智能企业来说都是巨大的挑战。作为AI领域的明星企业,OpenAI也在积极探索多样化芯片的供应渠道,降低算力成本。
据10月30日路透社消息,OpenAI正携手博通(Broadcom)和台积电开发首款自研 AI 芯片,并在英伟达芯片的基础上增添 AMD 芯片,以应对急剧扩张的基础设施需求。
要知道,AI芯片是支撑AI模型训练和AI应用落地的重要基础。目前市场上,英伟达、AMD等芯片厂商提供的GPU虽然性能强大,但成本昂贵且供不应求。通过自研定制AI芯片,OpenAI能够更好地针对自己的业务需求进行优化,从而提升AI训练和推理的效率,建立OpenAI的市场竞争力。
中小企业和个人用户也需要高质量算力进行AI训练和AI推理,可以优先选择算力租赁平台,例如通过算力云平台在云端访问GPU服务器实现AI模型的训练、推理和运行。
目前算力云平台已在多所城市部署数据中心,为海内外高校、企业和个人用户提供算力租用服务。平台目前有 RTX 4090/3090/3080/2080Ti 充足的显卡在多地域可租用,在杭州、西安、北京、成都、济南等城市还有专门适用于深度学习推理的 NVIDIA Tesla T4 和 NVIDIA V100S 可租用。双十一期间,算力云推出朋友圈集赞活动,参与者可获得对应奖励金!高端算力显卡更有限时降价活动,低至75折!
当然,自研芯片并非易事,需要大量的资金投入、技术积累以及人才支持。对于像OpenAI这样的人工智能企业,跨界涉足硬件领域无疑是一个大胆而冒险的决定。
早先OpenAI就曾计划建造“晶圆厂”网络,全面掌握芯片制造,奈何融资不成功,计划难以实现。
作为芯片需求大户,OpenAI结合内部研发和外部合作,转向探索自研定制芯片。目前,OpenAI已组建了约 20 人的芯片团队,团队核心成员包括曾在谷歌负责开发 Tensor 处理单元( TPU )的 Thomas Norrie 和 Richard Ho 。同时借助博通,OpenAI与台积电确定了制造产能,预计 2026 年推出首款定制芯片,但时间表或有变动。
OpenAI自研AI芯片的想法和行动不仅有助于确保算力供应的稳定性,还能让OpenAI更加灵活地应对市场变化和技术革新。至于这一想法能否成功落地,还要时间来证明。
以上是算力云今日内容分享,对AI行业资讯感兴趣的朋友可以多多关注我们!