
字节Seed提出序贯策略优化方法,突破同传“质量-延迟”权衡问题
字节Seed提出序贯策略优化方法,突破同传“质量-延迟”权衡问题为此,香港中文大学、字节跳动Seed和斯坦福大学研究团队出手,提出了一种面向同声传译的序贯策略优化框架 (Sequential Policy Optimization for Simultaneous Machine Translation, SeqPO-SiMT)。
为此,香港中文大学、字节跳动Seed和斯坦福大学研究团队出手,提出了一种面向同声传译的序贯策略优化框架 (Sequential Policy Optimization for Simultaneous Machine Translation, SeqPO-SiMT)。
和人工标记数据说拜拜,利用预训练语言模型中的注意力机制就能选择可激发推理能力的训练数据!
字节Seed首次开源代码模型!Seed-Coder,8B规模,超越Qwen3,拿下多个SOTA。它证明“只需极少人工参与,LLM就能自行管理代码训练数据”。通过自身生成和筛选高质量训练数据,可大幅提升模型代码生成能力。
最近,DeepSeek-R1 和 OpenAI o1/03 等推理大模型在后训练阶段探索了长度扩展(length scaling),通过强化学习(比如 PPO、GPRO)训练模型生成很长的推理链(CoT),并在奥数等高难度推理任务上取得了显著的效果提升。
基于Transformer的自回归架构在语言建模上取得了显著成功,但在图像生成领域,扩散模型凭借强大的生成质量和可控性占据了主导地位。
字节Seed团队视频生成基础模型,来了。
今年拿了腾讯 Al Lab(青云计划”), 字节跳动(Seed) 的 offer, 国外有之前实习的 Sony Research 和 Yamaha 的 return offer, 也有正在面试的 Adobe 和 Meta。 这些工作机会的方向都和我的博士工作完全 match, 没有转方向的痛苦。最后, 我接了字节 Seed 团队的 offer, 结束秋招。