中意资讯网 中意资讯网

当前位置: 首页 » 前沿资讯 »

李开复:大模型已经白菜价,AI-First应用很快将井喷

21世纪经济报道记者白杨 北京报道

3月29日,在2025中关村论坛年会未来人工智能先锋论坛上,创新工场董事长兼零一万物CEO李开复表示,AI 2.0是有史以来最伟大的科技革命与平台革命,大模型走出实验室,正穿透各行各业成为驱动实体经济的新质生产力。

李开复 图自中关村论坛

李开复称,ChatGPT推出之后的两年里,大模型智力在不断地提升,而且目前看起来远没有触及天花板。与此同时,大模型的推理成本在以每年降低到十分之一的速度快速下降,这为AI-First应用爆发提供了非常重要的条件。

“两年前性能不够好的模型,现在已经够好了;两年前推理成本太贵的模型,现在已经是白菜价了。”因此在李开复看来, AI-First应用很快将井喷,2025年将会是AI-First应用爆发、大模型“落地为王”的元年。

几个月前,前OpenAI联合创始人Ilya公开表示,预训练阶段的Scaling Law已经放缓。因为模型训练所用的数据量已经触及瓶颈,算力方面也存在着客观制约因素——随着GPU数量增加容错问题等导致边际效益降低。

因此即便训练出超大参数量的大模型,比如OpenAI所发布的GPT-4.5,模型性能确实有提升,但是GPT-4.5的价格是DeepSeek-V3的500倍。这说明超大参数量的模型价格十分昂贵,性价比并不突出。

好在行业内已经出现了新的曙光,Scaling Law正从预训练阶段转向推理阶段,也就是慢思考模式。

李开复表示,过往预训练阶段的Scaling Law是指:有更多的GPU、更多的数据,模型就可以变得更聪明,但目前看其增长趋势放缓了。新的慢思考Scaling Law是指:模型思考的时间更长,就会得出有更优质的结果。

目前看来,慢思考Scaling Law下,模型性能的成长速度非常快,而且还有很大的增长空间。

结合这些新的技术创新,现在模型训练的过程也变得非常有意思。先训练一个“文科生”,让模型阅读所有的书籍,然后再向理科方向训练,让模型能够证明数学题、会写代码,最终得到的“文理双全”的模型会非常厉害。

此外,李开复还指出,现在行业正进入一个非常有意思的“AI教AI”时代。

他表示,从 OpenAI 发布o1到发布o3,中间只隔了三个月。 DeepSeek-R1也是在OpenAI o1发布的两个月之后就正式发布,并且可能很快就会发布 R2。

“无论是从o1到o3,还是从R1到R2,模型迭代的速度都缩短到了三个月。一个重要的原因就是现在很大程度上已经不再单单依靠人来发明新算法、发明模型架构,而是 AI 借由慢思考具备了反思的能力,能够自我迭代、自我进步”。李开复说道。

这意味着AI已经进入到自我演进范式。现在,模型性能更好的模型可以去教那些基础较弱的模型,超大参数模型可以去训练参数量较小的模型。

李开复将这样的搭配比喻为“老师”和“学生”,“超大预训练模型的价值将进一步体现在‘教师模型’的角色中,经过蒸馏、数据标注和合成数据,未来模型性能的提升会进一步加速。”

另外,李开复还分享了他对DeepSeek的一些观察。其中他提到,中国迎来了属于自己的“DeepSeek Moment”,这大幅加速了大模型在中国的全面落地。

大概9个月前,李开复曾经沮丧地说,中国还没有“ChatGPT moment”,虽然过去也有表现不错的模型出现,但是却始终缺少一个一枝独秀的模型,能够支撑 ToB、ToC应用百花齐放,能够让每个企业CEO都在追问IT部门“什么时候能在企业里接入大模型?”

而现在,企业和用户经过“DeepSeek Moment”的市场教育,让中国市场真正觉醒,这也为中国AI-First 应用的爆发扫清了一大障碍。

李开复认为,过去做大模型应用最大的瓶颈之一,就是需要教育市场。如果一个初创公司需要教育市场,那它几乎没有成功的可能,因为教育市场需要的时间太长,前景未卜。今天DeepSeek完成了对中国ToB、ToC市场的市场教育, 这让AI-First应用爆发又多了一个强有力的支撑。 

未经允许不得转载: 中意资讯网 » 李开复:大模型已经白菜价,AI-First应用很快将井喷