牛透社 11 月 25 日消息,AMD 联合 IBM 与人工智能初创公司 Zyphra 共同发布全球首个全 AMD 硬件训练的 MoE 基础模型 ZAYA1。该模型预训练数据量达 14 万亿 token,综合性能与 Qwen3 系列持平,在数学/STEM 推理任务中无需指令微调即可接近 Qwen3 专业版水平。该模型基于 IBM Cloud 提供的 128 个计算节点(总计 1024 张 AMD ...
网页链接牛透社 11 月 25 日消息,AMD 联合 IBM 与人工智能初创公司 Zyphra 共同发布全球首个全 AMD 硬件训练的 MoE 基础模型 ZAYA1。该模型预训练数据量达 14 万亿 token,综合性能与 Qwen3 系列持平,在数学/STEM 推理任务中无需指令微调即可接近 Qwen3 专业版水平。该模型基于 IBM Cloud 提供的 128 个计算节点(总计 1024 张 AMD ...
网页链接
精彩评论