首先,给大家带来一个好消息:算力云平台可新增「QwQ-32B」开源模型。文章附启用该模型的操作步骤。
本期汇总
# 新增「QwQ-32B」开源推理模型 #
# 海外VPS/云电脑 可查询「测试IP」 #
对平台的建议/想法可通过有奖问卷反馈给我们~
随着AI浪潮的开启,全球进入了百模争霸时代。而这两年国产大模型频频高光,接连在国际爆火:上线即霸占各平台热门榜单至今的DeepSeek-R1,与半夜发布即爆火出圈的QwQ-32B。是我国大模型迅速在全球AI领域占据一席之地。
同样属于国产的硬实力模型,这两者有什么区别?
DeepSeek-R1 是幻方量化旗下AI公司深度求索(DeepSeek)发布的推理模型。该模型在后训练阶段大规模使用了强化学习技术,通过整合冷启动数据和多阶段训练实现了最先进的性能,使其能够进行深度思考和复杂推理,在数学、代码、自然语言推理等任务上性能比肩OpenAI o1。
算力云平台已上线 Ollama镜像,选择任意GPU即可使用Ollama镜像部署DeepSeek-R1模型,点击查看 部署教程 。
而阿里云最新发布的开源推理模型QwQ-32B(Qwen with Questions)则是一个实验性研究模型,专注于增强 AI 推理能力。据说仅用32B,就击败o1-mini追平671B满血版DeepSeek-R1!被称为“开源全球最顶尖模型”。
QwQ-32B模型发布及登上热门榜单,以320亿参数规模实现性能比肩6710亿参数的DeepSeek-R1,甚至还在多项基准测试中全面超越o1-mini。
不仅如此,QwQ-32B模型还将部署成本压缩至消费级显卡可承载范围。在数学推理、代码生成等核心场景表现卓越,并通过全量开源Apache2.0协议加速端侧AI生态构建,标志着超低密度智能时代的范式革命。种种实力让QwQ-32B被称为「推理能力天花板」与「实用性典范」的完美结合。
目前,阿里以宽松的Apache2.0协议将QwQ-32B全面开源,全球开发者与企业均可免费下载、商用。算力云平台也在Ollama镜像中接入了QwQ-32B开源模型供所有用户使用。
如何启用 QwQ-32B 模型
进入算力云控制台(www.suanlix.cn),选择「GPU实例」并「创建」实例,在创建过程中的「镜像」部分会看到相关提示,根据提示进行选择即可。
如果还不了解Ollama镜像如何使用的,点击查看 Ollama镜像教学(教学中附有DeepSeek-R1模型启用步骤,与QwQ-32B模型启用步骤一致,可直接参考。)
用户端如何查看测试IP
本次平台升级还新增了一个小功能:海外VPS与云电脑支持用户自行查看测试IP。需要的用户可以前往查看与验证。
- 海外VPS 测试IP查看:进入海外VPS「创建」页面,点击「实例配置」中的蓝字「测试IP:查看」可直接查看。
- 云电脑 测试IP查看:进入云电脑「创建」页面,点击「配置」中的蓝字「测试IP:查看」可直接查看。
以上就是本次算力云更新的内容啦,如对平台操作有不解,可联系人工客服处理。