国产AI卷翻硅谷,奥特曼发文“阴阳”,类o1模型都在卷什么?
《足球》报特约记者甘慧报道,上海申花新助理教练是55岁的韦列坚尼科夫,他曾是俄超传奇射手。斯卢茨基希望他能帮助球队提升攻击力,特别是提高进球转化率。2024赛季,上海申花以一分之差屈居中超联赛亚军。
声明:本文来自于微信公众号脑极体,作者:藏狐,授权 转载发布。
两个的发布,让全球AI圈“提前过年”了。
前两天,月之暗面推出了 k1.5模型,也发布了DeepSeek-R1文本推理模型,二者都在推理能力上对标OpenAI正式版o1。
不到两个月,国产推理模型就实现了对OpenAI o1满血版(2024年12月上线)的对标,而且与OpenAI藏着掖着的技术秘诀不同,两家中国公司双双公开了他们的特色技术道理:DeepSeek R1的极高性价比,kimi k1.5原创技术long2short 思维链+原生多模态。
因此/DeepSeek“双子星”一夜卷翻硅谷,技术报告 per一放出,就吸引了大量海内外同行的关注和解读,在github的热度飙升。
目前来看,海外同行的反馈以振奋为主流。比如Answera公司的创始人保罗·库弗特(Paul Couvert)就感叹,两款中国o1同日发布,(中国AI)追赶速度越来越快了!
当然,自然也少不了“泼冷水”的。
OpenAI CEO奥特曼在社交媒体说,“twitter hype is out of control”(推特上的各种炒作已经失控了)。他认为外界猜测的“AI即将取代大部分中层岗位”(主要靠推理模型)过度夸大了。希望大家冷静下来,把期待值降低100倍(cut yo expect ions100x)。
或许有人好奇,国产推理模型真的崛起了吗?大模型技术如何从“规模扩展”发展到“推理扩展”?对于推理模型这个路线,我们到底该保持兴奋还是冷静一下?本文就来给大家一一解读。
两个中国AI公司的新模型,吸引了全球海内外同行的高度关注。原因很简单,推理模型太火了。
2024年第四季度,出现了reasoning model的新形态LLM,采用思维链进行“慢思考”,在推理阶段投入更多计算(推理拓展思路),这种创新带给大模型超前的推理能力,可以减少幻觉,提高可靠性,处理更为复杂的任务,达到人类专家/研究生级别的智能,被认为是规模拓展Scaling Law撞墙后 潜力的新技术。
o1系列之后,头部模厂都开始向“慢思考”的推理模型技术路线投入,包括大厂谷歌、 、阿里、科大讯飞、夸克,以及AI六小虎中的智谱、DeepSeek、阶跃星辰等,此前也都推出过准o1的推理模型,但一直没有 对标正式版o1的国产推理模型。
要证明国产推理模型的崛起,有两个前提条件:一是经得起全球同行的审视;二是具备原创能力而非简单跟随, 对标而非部分达标。
目前来看,Kimi k1.5/ DeepSeeK R1达到了上述条件。
Kimi k1.5/ DeepSeeK R1首次真正对标了正式版o1,取得了SOTA成绩。其中,k1.5还是国内首个多模态o1,同时支持文本和图像推理。这在全球推理模型领域都是比较亮眼的成绩。
而且,不同于OpenAI o1藏着掖着的风格,Kimi和DeepSeeK都发布了详细的技术报告,分享模型训练技术的探索经验,立刻在海外AI圈掀起了解读论文的热潮。
比如英伟达的研究科学家 时间开扒,得出的结论是,Kimi和DeepSeeK的研究“振奋人心”。
作为当前AI领域最主流的叙事和技术高地,推理模型的风吹草动,都会引发全球从业者的目光。而中国公司一口气在推理模型赛道上,拿出两个重磅论文,模型含金量高,经过了目光聚焦且严苛的审视,其中还包含很多原创技术。
可以说,从Kimi k1.5/ DeepSeeK R1的“双子星”开始,国产推理模型是真的崛起了。
推理模型,国内AI公司是怎么追赶的?我们和海外AI圈一起“黑着眼眶熬着夜”,苦读kimi/ DeepSeek论文,简单总结一下:
总路线上,k1.5和R1都使用了强化学习(RL)技术,来提升模型推理能力。但在技术细节上,kimi/ DeepSeek都拿出了全新的思路。
DeepSeek没有采用业界普遍的 微调( T)作为冷启动的方案,提出了一种多阶段循环的训练方式,用少量冷启动数据,微调模型作为强化学习的起点,然后在RL环境中通过奖励信号来自我进化,实现了 好的推理效果。
Kimi k1.5则首创了long2short思维链,让LLM通过奖励机制进行探索性学习,自主扩展训练数据,来扩展上下文长度,从而优化RL训练表现,在短链思维推理方面取得了SOTA成绩。
性能最强的long-CoT版本Kimi k1.5,数学、代码、多模态推理能力可以达到长思考SOTA模型OpenAI o1正式版的水平。
基于long-CoT版本简化的short-CoT,性能依旧强悍,但推理更加 ,大幅超越了全球范围内短思考SOTA模型GPT-4o和Claude3.5Sonnet的水平,领先达到550%。
除此之外,两大国产推理模型还各有亮点。
DeepSeek-R1延续了“AI界拼多多”的优秀传统,API每百万输出tokens16元,与o1每百万输出tokens60美元的定价一比,性价比拉满。
Kimi k1.5则是OpenAI之外,首个达到o1多模态推理性能的模型,k1.5支持文本、图像交叠的多模态输入,可以进行联合推理,填补了国内多模态思考模型的空白。
在人类的感官中,视觉信息占比超过70%,有了多模态能力,认识自家的Benchmark图表自然不在话下。
众所周知,o1要么用起来贵(200美元每月的订阅费),要么根本用不上(OpenAI不向国内提供服务)。因此,国产推理模型的上述亮点,带给海内外AI开发者的价值不是一般大,很多开发者都倍感兴奋。
一位开发者在论坛感叹,这两个中国实验室“用更少的资源做更多的事情,他们对模型效率和精炼的巨大关注,造福我们所有人”。
Amarok开发者Mark Kretschmann也在社交媒体上不吝褒奖,直呼k1.5是“多模态AI领域的重大突破”。
可以看到,面对“推理拓展”这个全新技术领域,中国AI“双子星”靠原创硬实力稳稳拿下,并走出了一条有别于OpenAI的发展创新之路。
OpenAI奥特曼建议大家放低预期,那么,中国AI公司发力推理模型,价值究竟有没有、有多大?
对于中国AI公司来说,点亮推理模型的技术版图,有两方面的意义:
一是仰望星空,可以拉近中美AI的技术距离。大模型的领先不会从天上掉下来,而是日拱一卒、水滴石穿的努力,保持对 技术路线的跟进,能让中国AI的水平快速提高。对标Ch GPT用了半年左右,而对标正式版o1只用了不到三个月。
以Kimi为例,去年11月推出k0-m h数学模型,12月发布k1视觉思考模型,今年1月发布k1.5多模态思考模型,三个月三次迭代,进化速度极快。说明对天花板技术的贴身跟进,是中国AI最快 的练兵场。
二是脚踏实地,中国的行业沃土为国产AI提供了更广阔的落地场景,推理模型的落地情况会比o1更好。海外AI多以个人消费者为主,o1的主要用例是程序员的代码助手、数据分析师、个人开发者,普通人上手门槛高。而国产大模型更多面向行业场景,AI改造的业务场景中包含大量容错率低的严肃生产场景,以前的大语言模型很难 复杂任务,十分需要少幻觉、高可靠的推理模型。所以,国产推理模型的落地也许会更快、更广。
从这些角度看,在各行各业引入专家级AI的推理模型,加速行业智能化,恐怕仍会由国产AI率先垂范。k1.5、R1等国产推理模型,将在其中贡献不可或缺的基座价值。Kimi 也表示,2025会继续沿着路线图,加速升级k系列强化学习模型,带来更多模态、更多领域的能力和更强的通用能力。
所以不出预料的话,我们很快就能用上花钱少、出活好的专家级国产AI了。
中国AI“双子星”炸开的2025年大模型开局,分外精彩。推理模型作为模厂的下一个分水岭,谁抓住了国产推理模型的崛起时刻,也就先一步抓住了未来。