大家有没有注意到,中国的AI模型最近在用的时候突然变得特别火?全球那些主要的AI模型平台像“开放路由器”的数据就挺说明问题。数据显示,从今年2月开始,中国的大语言模型每周处理的词元量飞速上涨,已经超过了美国。 有分析说是因为“开放之爪”这类智能体突然兴起,大家需要的算力一下子就上去了。中国的AI模型因为开源、便宜还有架构上的优势,所以大家都挺认。 那个平台允许用户切换使用不同的模型。数据显示,从今年头到现在,用户通过这个平台调用的总词元量已经从一周6万亿,猛涨到了3月22日这一周的20.4万亿。而且这一周排名前四的AI模型全都是中国公司弄出来的,中国主要的AI模型这一周一共被调用了7.3万亿词元,比上一周多了50%。美国那边的主要AI模型这一周才被用了3.5万亿词元。 不光是“开放路由器”,在中国开源的平台“HuggingFace”上,咱们中国的AI模型也排在前面。大家觉得最近AI智能体搞得这么热闹,主要是因为大家对算力的需求一下子变高了。 像“开放之爪”这种智能体能在现实世界里干活儿,所以不管是科技圈还是普通老百姓都挺感兴趣。这东西虽然能免费部署,但得用大模型来驱动,处理任务的时候得吃好多词元。词元调用量和成本就成了能不能用好这个产品的关键因素。 在AI圈里,词元就是模型处理和生成信息的最小单位。AI不认字也不认识词,通常都是把语言切成一小块一小块的词元,再映射成数字ID让机器能看懂。 英国的《泰晤士报》有个编辑叫凯蒂·普雷斯科特,她最近写了篇文章说中国的AI模型之所以这么受欢迎,很重要的一个原因是用同样的钱干的活儿比美国多。比如按词元输出收费算的话,中国深度求索公司的DeepSeek-V3.2模型给你100万个词元只要0.28美元。而美国那边的OpenAI搞出来的GPT-5.4模型要15美元。 普雷斯科特认为中国的AI模型便宜主要是因为他们用了开源模式、中国电力供应充足这些因素,再加上模型架构高效弥补了硬件的不足。从技术上说,中国的开发者一直在优化“混合专家”这种架构,让模型干活儿的时候只激活需要的那部分去算,而不是把整个模型的能力都调用出来。 这在美国那边也挺管用的。美国科技新闻媒体“科技关键”报道了一个事,美国有家叫阿尼斯菲尔的初创公司推出了一个新模型,号称有“前沿级别的编程智能”。结果很快有人在网上指出这东西是用中国开源模型做的底子。 这家公司为什么不承认呢?一方面可能是觉得没从零开始造轮子挺不好意思的。另一方面也是怕在美国舆论老是渲染“中美AI竞赛”的时候承认用了中国东西会惹麻烦。 不过据业内人士估计,大概有80%的美国AI初创公司都在用中国开源的AI模型来搞研发呢。美中经济与安全评估委员会前段时间发了个报告说,虽然中国这边受了点打压和限制,但因为他们的产业生态开放得好,所以还能在前沿领域搞创新。报告还提到中国在工厂、物流和机器人这些地方用AI产生的“真实世界”数据能改进模型,形成数字和实体的闭环循环。 《南华早报》引述了美国分析师的话报道说中国不同的开源模型可以互相借鉴形成体系,这对AI发展有正反馈作用。路透社评论说虽然西方老说中国开源AI不安全但很多企业还是更看重实际情况。 西门子的董事长博乐仁也说了中国开源的AI成本低好定制用来搞工业自动化没坏处。