本文作者:创意奇才

传神语联何恩培:依赖Scaling Law的大模型路线已遇瓶颈

创意奇才 今天 11
传神语联何恩培:依赖Scaling Law的大模型路线已遇瓶颈摘要: 年中国大满贯赛于月日月日进行本次比赛设有男子单打女子单打男子双打女子双打及混合双打五个项目详细赛程及国乒参赛名单如下欢迎各位球友转发国乒参赛名单男单预赛薛飞温瑞博曾蓓勋黄友政周恺陈...

2024年WTT中国大满贯赛于9月26日-10月6日进行,本次比赛设有男子单打、女子单打、男子双打、女子双打及混合双打五个项目。详细赛程及国乒参赛名单如下,欢迎各位球友转发!国乒参赛名单男单预赛:薛飞、温瑞博、曾蓓勋、黄友政、周恺、陈垣宇、徐海东男单正赛:王楚钦、梁靖崑、马龙、林诗栋、林高远、周启豪、向鹏、...

11月19日消息,近日,传神语联推出“任度数推分离大模型”,模型采用双网络架构实现数推分离,把推理网络与数据学习网络分开。

据介绍,可将其理解为两个协同联动的大脑:一个是客户数据学习网络大脑,专注于数据的动态管理与迭代训练,为模型持续注入知识;一个是推理网络大脑,作为经大量数据预训练的基础网络,有良好的推理和泛化能力。

随着AI技术进入规模化应用阶段,传统的开发逐渐暴露出成本高昂、效率低下的难题。尤其在参数规模不断扩大的背景下,Scaling Law(规模定律)的局限性愈发显著。

传神创始人何恩培认为,仅依赖Scaling Law的大模型路线已遇瓶颈,要真正突破需依靠算法与架构。

传神语联何恩培:依赖Scaling Law的大模型路线已遇瓶颈

双网络通过共享嵌入层和中间表示层协同工作,形成类似“主脑”与“辅脑”的 配合模式,既支持 训练,也支持联合推理。

这一双网络架构通过共享嵌入层和中间表示层,实现灵活 训练与 联合推理,提升模型性能的同时显著降低成本。

据悉,相比传统大模型,“任度双脑大模型”架构在多个关键领域实现突破:一是实时学习: 数据学习网络支持上下文无限制输入,可动态处理海量数据,缩短训练时间至分钟级;二是数据隐私保护: 客户数据本地完成训练,无需上传至云端;三是成本优化:减少模型参数规模,大幅降低算力需求与硬件投入成本。

坚信,“制胜”是具有中国特色的技术路径之一,在以大模型为代表的AI时代尤为重要。相信中国有很多像传神这样的团队在默默耕耘,正在以独特理念引领智能创新。(袁宁)

本文来自 科技报道,更多资讯和深度内容,关注我们。