蚂蚁集团利用中国芯片将人工智能训练成本降低 20%

AI教程 2025-03-26

image.png


据报道,亿万富翁马云支持的蚂蚁集团开发了一种使用中国制造的芯片训练大型人工智能模型的成本节约方法,取得了与英伟达硬件相当的结果,同时将成本降低了 20%。在美国芯片限制的背景下,此举使蚂蚁集团在中国打造自主人工智能能力的竞赛中占据了更稳固的地位。


据知情人士透露,蚂蚁金服使用阿里巴巴和华为等公司的国产半导体,采用混合专家 (MoE) 架构训练其最新的大型语言模型 (LLM)。尽管蚂蚁金服仍在使用一些 Nvidia GPU,但现在主要依靠 AMD 和中国芯片进行开发。




这一进展反映出中国正在加速推进芯片独立,因为美国出口管制继续阻碍高端 Nvidia 处理器(如 H800)的销售。虽然 H800 不是 Nvidia 最先进的芯片,但它仍然是一款功能强大的 GPU——而且现在中国买家无法购买。


随着全球 AI 投资的不断增加,混合专家 (MoE) 模型越来越受欢迎,并被 Google 和 DeepSeek 等领军企业所采用。该技术将任务划分为更小的组件,并将它们路由到专门的“专家”子网络,就像将任务分配给专家团队一样。结果是效率更高、计算需求更低、可扩展性更强,即使在低规格硬件上也是如此。Ant 的模型基于这种 MoE 架构构建,从而实现了经济高效的性能。


这与 Nvidia 的战略形成了鲜明对比。首席执行官黄仁勋坚持认为,即使 DeepSeek 的 R1 等更高效的模型兴起,计算需求仍将继续增长。他认为,公司需要越来越强大的芯片来推动收入增长,而不是寻找更便宜的替代品来削减成本。Nvidia 一直专注于制造具有更多内核、晶体管和更大内存的更大 GPU。相比之下,Ant 的方法优先考虑优化和可负担性,而不是原始功率。


尽管使用成本较低的硬件,但据报道,蚂蚁的模型提供的结果与基于 Nvidia 的系统相当。据该公司称,其优化的训练方法将处理 1 万亿代币的成本从 635 万元人民币(880,000 美元)降低到 510 万元人民币(707,000 美元),这对于受计算预算限制的公司来说是一个潜在的突破。


蚂蚁集团承认存在技术障碍,包括硬件或模型架构的微小变化导致的训练不稳定。不过,这一结果标志着中国人工智能工程能力日趋成熟。 灵模型和实际应用


蚂蚁集团的努力已经产生了两种关键模型:


Ling-Plus:2900 亿个参数


Ling-Lite:168亿个参数


据《麻省理工技术评论》报道,专家估计 ChatGPT 的 GPT-4.5 有大约 1.8 万亿个参数,而 DeepSeek-R1 的参数数量则达到 6710 亿个。


据 Ant 的论文称,这两种模型在中文基准测试中的表现都优于 DeepSeek 模型,而 Ling-Lite 在至少一个关键基准测试中也在英语任务中击败了 Meta LLaMA 模型。


“如果你找到一个攻击点来打败世界上最好的功夫大师,你仍然可以说你打败了他们,这就是现实世界的应用如此重要的原因。”——Robin Yu,盛尚科技首席技术官


Ling 模型是开源的,并且已在各个领域应用。在医疗保健领域,蚂蚁金服正在部署其法学硕士来支持医院和医生,包括通过以下方式:


AI医生助理提供医疗记录支持


AI“生活助手”APP智小宝


马小财,一家人工智能金融咨询服务公司


Angel 和医保尔是两家医疗 AI 代理公司,分别专注于医疗设施和医疗保险服务


通过支付宝推出的AI健康管家


与北京、上海及其他地区的医院建立合作伙伴关系


这意味着什么


蚂蚁集团在人工智能领域的里程碑不仅代表着技术上的胜利,还标志着人工智能发展战略的深化转变。通过证明高质量模型可以在国产硬件上进行训练,蚂蚁集团正在帮助中国走向人工智能自给自足,挑战西方在计算密集型人工智能系统领域的主导地位。


随着 Ling-Plus 和 Ling-Lite 等开源模型在医疗保健和金融领域进入实际部署,蚂蚁金服正在悄悄构建一个强大的 AI 生态系统,旨在在不受硬件限制的情况下蓬勃发展。这可能会重塑企业 AI 的未来格局——成本效率、适应性和本地基础设施与原始模型大小同样重要。


尽管 OpenAI 继续追求在封闭 API 背后的精英硬件上训练更大规模的模型,但 Ant 的战略强调了一条更加分散、更易于访问的前进道路——这条道路可能在将 AI 扩展到现实世界的行业方面具有同样的影响力。

©️版权声明:若无特殊声明,本站所有文章版权均归AI工具集原创和所有,未经许可,任何个人、媒体、网站、团体不得转载、抄袭或以其他方式复制发表本站内容,或在非我站所属的服务器上建立镜像。否则,我站将依法保留追究相关法律责任的权利。

相关文章