字节Seed团队发布循环语言模型Ouro,在预训练阶段直接「思考」,Bengio组参与
字节Seed团队发布循环语言模型Ouro,在预训练阶段直接「思考」,Bengio组参与现代 LLM 通常依赖显式的文本生成过程(例如「思维链」)来进行「思考」训练。这种策略将推理任务推迟到训练后的阶段,未能充分挖掘预训练数据中的潜力。
现代 LLM 通常依赖显式的文本生成过程(例如「思维链」)来进行「思考」训练。这种策略将推理任务推迟到训练后的阶段,未能充分挖掘预训练数据中的潜力。
Game-TARS基于统一、可扩展的键盘—鼠标动作空间训练,可在操作系统、网页与模拟环境中进行大规模预训练。依托超5000亿标注量级的多模态训练数据,结合稀疏推理(Sparse-Thinking) 与衰减持续损失(decaying continual loss),大幅提升了智能体的可扩展性和泛化性。
杨红霞要走一条和阿里、字节截然不同的模型训练之路。
生数科技前产品副总裁廖谦创业了。在此之前,他还先后担任过字节剪映与火山引擎前AIGC产品负责人。8月底从老东家离职后,公司成立仅半个月,就已经拿下了硅谷美元基金HT Investment与BV百度风投的数百万美元投资。
近期,DeepSeek-OCR提出了“Vision as Context Compression”的新思路,然而它主要研究的是通过模型的OCR能力,用图片压缩文档。
可能很多人还不知道,京东云早就做了类似字节 Coze 这样的产品,并且已经 100% 开源。目前市面上同类产品有不少,京东云 JoyAgent 主打的一个亮点就是它在京东内部的场景中验证过,更贴合企业严肃商业场景的需求。今天,我做个记录,也把操作流程和经验分享给大家。
最近,曾任字节智慧教育业务线 CEO 的李可佳(Ethan KJ Li)也入局了“AI 播客”,只不过它的思路与前两位并不相同。李可佳的产品名为 Aibrary,于今年 4 月 23 日上线美区 App Store 进行测试,9 月 23 日正式上线。从官网上的介绍来看,Aibrary 的核心功能是把书籍转化/重塑为个性化播客,并通过定制学习路径、互动式辅导,服务于个人学习场景。
最近在开源社区闲逛,发现字节悄悄放出了一个叫 MineContext 的项目。和字节Viking团队的小伙伴聊天时,我了解到一个挺有意思的故事:MineContext 团队其实在今年四五月份就有了初步想法,甚至更早之前就在思考:如何围绕个人的完整记忆来做应用。
近日,字节跳动一篇论文介绍了他们 LLM 训练基础设施 ByteRobust,引发广泛关注。现在,在训练基础设施层面上,我们终于知道字节跳动会如何稳健地训练豆包了。
AI智能助手的全球格局,来了个新玩家。 一款名为Cici的AI智能助手应用,近期在多个国家应用商店悄然“霸榜”。