成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架
成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架CUDA 代码的性能对于当今的模型训练与推理至关重要,然而手动编写优化 CUDA Kernel 需要很高的知识门槛和时间成本。与此同时,近年来 LLM 在 Code 领域获得了诸多成功。
CUDA 代码的性能对于当今的模型训练与推理至关重要,然而手动编写优化 CUDA Kernel 需要很高的知识门槛和时间成本。与此同时,近年来 LLM 在 Code 领域获得了诸多成功。
中科大 LDS 实验室何向南、王翔团队与 Alpha Lab 张岸团队联合开源 MiniOneRec,推出生成式推荐首个完整的端到端开源框架,不仅在开源场景验证了生成式推荐 Scaling Law,还可轻量复现「OneRec」,为社区提供一站式的生成式推荐训练与研究平台。
上海人工智能实验室推出了一款革新的多模态生成理解一体化的扩散语言模型 ——Lumina-DiMOO。基于离散扩散建模(Discrete Diffusion Modeling),Lumina-DiMOO 打破了多模态任务之间的壁垒,在同一离散扩散框架下,完成从 文本→图像、图像→图像、图像→文本的全栈能力闭环。
长期以来,多模态代码生成(Multimodal Code Generation)的训练严重依赖于特定任务的监督微调(SFT)。尽管这种范式在 Chart-to-code 等单一任务上取得了显著成功 ,但其 “狭隘的训练范围” 从根本上限制了模型的泛化能力,阻碍了通用视觉代码智能(Generalized VIsioN Code Intelligence)的发展 。
研究者们提出了 FDA(Model Merging with Functional Dual Anchors)——一个全新的模型融合框架。与传统的参数空间操作不同,FDA 将专家模型的参数知识投射到输入-表征空间中的合成锚点,通过功能对偶的方式实现更高效的知识整合。
我们仍在用 10 年前的思维框架,描述10年后的产品形态 “AI产品革命”都快三年了,还没个像样的 PRD 模板出来,实在不像样。 这篇文章,或许可以“救命”: 1. 论述传统产品与 AI 产品的 P
近日,来自北京大学与BeingBeyond的研究团队提出DemoHLM框架,为人形机器人移动操作(loco-manipulation)领域提供一种新思路——仅需1次仿真环境中的人类演示,即可自动生成海量训练数据,实现真实人形机器人在多任务场景下的泛化操作,有效解决了传统方法依赖硬编码、真实数据成本高、跨场景泛化差的核心痛点。
在数字经济浪潮中,企业对于高效、精准的信息获取与决策支持的需求日益迫切。从前沿科学探索到行业趋势分析,再到企业级决策支持,一个能够从海量异构数据源中提取关键知识、执行多步骤推理并生成结构化或多模态输出的「深度研究系统」正变得不可或缺。
AI的下一个十年,是构建空间智能的机器。李飞飞最新硬核长文,揭秘了空间智能「世界模型」核心框架和三大核心支柱。但「空间智能」究竟是什么?为何如此重要?该如何构建它?又该如何应用它?今天,李飞飞撰万字长文分享了自己关于构建和使用「世界模型」以解锁空间智能的思考。
面对“AI是否陷入泡沫”的热议,美国知名对冲基金Coatue深度研究了过去400年间30余次典型泡沫案例,从中提炼出共性特征,并据此发布了年度AI重磅报告。Coatue将这一框架应用于当前AI领域,得出的结论是:AI正处于早期“替代/普及”阶段,远未到达泡沫顶点。