今日算力租赁平台算力云,再为大家带来一则人工智能计算领域的大事件。

就在今天,Cerebras Systems,一家2016年成立于美国硅谷的AI芯片制造商,宣布推出了全球最快的AI推理解决方案“Cerebras Inference”。

据IT之家消息,Cerebras Systems此次推出的AI推理解决方案,能为Llama 3.1 8B 模型提供每秒 1800 个 token,为 Llama 3.1 70B 模型提供每秒 450 个 token,远超英伟达(NVIDIA)GPU AI 推理解决方案的20倍!

领先英伟达GPU20倍!半导体小企业推出全球最快的AI推理服务?

据IT之家消息,Cerebras Systems此次推出的AI推理解决方案,能为Llama 3.1 8B 模型提供每秒 1800 个 token,为 Llama 3.1 70B 模型提供每秒 450 个 token,远超英伟达(NVIDIA)GPU AI 推理解决方案的20倍!

领先英伟达GPU20倍!半导体小企业推出全球最快的AI推理服务?

可想而知,作为一家人工智能计算的初创企业,超越AI芯片的行业领袖英伟达,推出一款全球最快的AI推理工具,在人工智能计算需求爆棚的时代,Cerebras Inference将会引起多大的关注!

在AI计算需求指数级增长的时代,算力租赁平台算力云(Suanlix.Cn)平台已在福建、广东、浙江、陕西、甘肃、山东、香港全国多所城市部署数据中心,提供高性能的算力租用服务,以及GPU云主机和CPU云主机的租用服务。近期为感谢新老用户,还推出实名认证享受折上折活动,适合有AI推理、人工智能计算、深度学习需求的用户。领先英伟达GPU20倍!半导体小企业推出全球最快的AI推理服务?

更令人惊讶的是,Cerebras Inference起价每百万个token仅需支付10美分,为人工智能工作负载提供100倍更高的性价比!

据IT之家消息,Cerebras Inference 提供以下三个层级:

  • 免费层为登录的任何人提供免费的 API 访问和慷慨的使用限制。
  • 开发者层专为灵活的无服务器部署而设计,为用户提供一个 API 端点,其成本只是市场上替代方案的一小部分,Llama 3.1 8B 和 70B 模型的定价分别为每百万 token 10 美分和 60 美分。
  • 企业层提供微调模型、定制服务级别协议和专门支持。企业可以通过 Cerebras 管理的私有云或客户场所访问 Cerebras Inference,非常适合持续的工作负载。

高效率、低成本的AI推理工具,即将掀起广泛的讨论度,这位在AI计算领域升起的冉冉之星,能否真正撬动英伟达的市场地位呢?

在今年8月初,就有知情人士透露消息,Cerebras已秘密申请在美国IPO,并选择花旗集团作为其IPO的牵头投行,后来又将巴克莱银行纳入其IPO承销银行阵容,Cerebras计划将在10月首次公开募股(IPO)。

当更具有成本和效率优势的AI推理方案出现,英伟达在AI领域的霸主地位会受到挑战吗?答案是必然的。

以上是算力云今日内容分享,感兴趣的朋友可以多多关注算力云!

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。