AI资讯新闻榜单内容搜索-Multi

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Multi
世界首个AI多人游戏全面开源!1500刀实时生成,一台PC跑出平行宇宙

世界首个AI多人游戏全面开源!1500刀实时生成,一台PC跑出平行宇宙

世界首个AI多人游戏全面开源!1500刀实时生成,一台PC跑出平行宇宙

刚刚,全球首个AI多人世界模型开源了!只需一台PC外加1500美元,就能让两个AI智能体在同一个世界中感知、互动、协作。这不仅是AI造梦的一小步,更是AGI创造世界模型的一大步。

来自主题: AI技术研报
8438 点击    2025-05-09 21:08
全球首款 AI 多人游戏来了!你的老电脑也能玩 | 附下载地址

全球首款 AI 多人游戏来了!你的老电脑也能玩 | 附下载地址

全球首款 AI 多人游戏来了!你的老电脑也能玩 | 附下载地址

以色列 Enigma Labs 团队今天在 X 平台宣称发布全球首款由 AI 生成的多人游戏——Multiverse(多重宇宙)。名字听起来就像漫威出品,玩法也确实够科幻。漂移、撞车,全都同步,操作互相响应,细节还能对上帧数。

来自主题: AI资讯
9517 点击    2025-05-09 14:53
细节直逼亚毫米级!港科广分层建模突破3D人体生成|CVPR 2025

细节直逼亚毫米级!港科广分层建模突破3D人体生成|CVPR 2025

细节直逼亚毫米级!港科广分层建模突破3D人体生成|CVPR 2025

从人体单图变身高保真3D模型,不知道伤害了多少程序猿头发的行业难题,竟然被港科广团队一招破解了!

来自主题: AI技术研报
7986 点击    2025-05-06 09:01
CVPR 2025 | CV 微调卷出天际,Mona:我小、我强、我省资源

CVPR 2025 | CV 微调卷出天际,Mona:我小、我强、我省资源

CVPR 2025 | CV 微调卷出天际,Mona:我小、我强、我省资源

Mona(Multi-cognitive Visual Adapter)是一种新型视觉适配器微调方法,旨在打破传统全参数微调(full fine-tuning)在视觉识别任务中的性能瓶颈。

来自主题: AI技术研报
8400 点击    2025-05-02 14:17
两个脑袋比一个好。自适应Multi-Agent框架M500实现41%的提升。| 最新

两个脑袋比一个好。自适应Multi-Agent框架M500实现41%的提升。| 最新

两个脑袋比一个好。自适应Multi-Agent框架M500实现41%的提升。| 最新

Two Heads are Better Than One"(两个脑袋比一个好/双Agent更优)源自英语中的一句古老谚语。MAS-TTS框架的研究者将这一朴素智慧应用到LLM中,创造性地让多个智能体协同工作,如同专家智囊团。

来自主题: AI技术研报
9134 点击    2025-04-19 13:39
Multi-Agents 系统太难搞了,不要轻易尝试 | UC Berkeley 论文分享

Multi-Agents 系统太难搞了,不要轻易尝试 | UC Berkeley 论文分享

Multi-Agents 系统太难搞了,不要轻易尝试 | UC Berkeley 论文分享

这两年,AI 领域最激动人心的进展莫过于大型语言模型(LLM)的崛起,LLM 展现了惊人的理解和生成能力。

来自主题: AI技术研报
9506 点击    2025-03-28 09:33
ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

在深度学习的多个应用场景中,联合优化多个损失项是一个普遍的问题。典型的例子包括物理信息神经网络(Physics-Informed Neural Networks, PINNs)、多任务学习(Multi-Task Learning, MTL)和连续学习(Continual Learning, CL)。然而,不同损失项的梯度方向往往相互冲突,导致优化过程陷入局部最优甚至训练失败。

来自主题: AI技术研报
9476 点击    2025-03-17 14:55
MM-Eureka:极少数据实现多模态推理的R1-Zero时刻

MM-Eureka:极少数据实现多模态推理的R1-Zero时刻

MM-Eureka:极少数据实现多模态推理的R1-Zero时刻

尽管 DeepSeek-R1 在单模态推理中取得了显著成功,但已有的多模态尝试(如 R1-V、R1-Multimodal-Journey、LMM-R1)尚未完全复现其核心特征。

来自主题: AI技术研报
8236 点击    2025-03-14 15:32
DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek-R1 作为 AI 产业颠覆式创新的代表轰动了业界,特别是其训练与推理成本仅为同等性能大模型的数十分之一。多头潜在注意力网络(Multi-head Latent Attention, MLA)是其经济推理架构的核心之一,通过对键值缓存进行低秩压缩,显著降低推理成本 [1]。

来自主题: AI技术研报
6053 点击    2025-03-07 10:24