
参数量暴降,精度反升!哈工大宾大联手打造点云分析新SOTA
参数量暴降,精度反升!哈工大宾大联手打造点云分析新SOTA新架构选择用KAN做3D感知,点云分析有了新SOTA!
新架构选择用KAN做3D感知,点云分析有了新SOTA!
统一图像理解和生成,还实现了新SOTA。
超越OpenAI! 国产大模型突袭,AI语音生成天花板被重新定义了。
字节拿出了国际顶尖水平的视觉–语言多模态大模型。
还记得刘慈欣在《全频带阻塞干扰》中描绘的耀斑爆发吗?
「矩阵」不再是科幻!Matrix-Game震撼来袭,突破边界带来交互式引擎。只需一句话,沙漠森林等任意场景可控生成,动作丝滑操控,360°视角自由切换,沉浸感爆棚。
在视觉语言模型(Vision-Language Models,VLMs)取得突破性进展的当下,长视频理解的挑战显得愈发重要。以标准 24 帧率的标清视频为例,仅需数分钟即可产生逾百万的视觉 token,这已远超主流大语言模型 4K-128K 的上下文处理极限。
字节Seed首次开源代码模型!Seed-Coder,8B规模,超越Qwen3,拿下多个SOTA。它证明“只需极少人工参与,LLM就能自行管理代码训练数据”。通过自身生成和筛选高质量训练数据,可大幅提升模型代码生成能力。
字节开源图像编辑新方法,比当前SOTA方法提高9.19%的性能,只用了1/30的训练数据和1/13参数规模的模型。
Qwen3强势刷新开源模型SOTA,但如何让其在资源受限场景中,既能实现低比特量化,又能保证模型“智商”不掉线?