AI资讯新闻榜单内容搜索-视觉

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 视觉
LLaVA-Mini来了!每张图像所需视觉token压缩至1个,兼顾效率内存

LLaVA-Mini来了!每张图像所需视觉token压缩至1个,兼顾效率内存

LLaVA-Mini来了!每张图像所需视觉token压缩至1个,兼顾效率内存

以 GPT-4o 为代表的实时交互多模态大模型(LMMs)引发了研究者对高效 LMM 的广泛关注。现有主流模型通过将视觉输入转化为大量视觉 tokens,并将其嵌入大语言模型(LLM)上下文来实现视觉信息理解。

来自主题: AI技术研报
2780 点击    2025-02-06 15:26
AI「视觉图灵」时代来了!字节OmniHuman,一张图配上音频,就能直接生成视频

AI「视觉图灵」时代来了!字节OmniHuman,一张图配上音频,就能直接生成视频

AI「视觉图灵」时代来了!字节OmniHuman,一张图配上音频,就能直接生成视频

还记得半年前在 X 上引起热议的肖像音频驱动技术 Loopy 吗?升级版技术方案来了,字节跳动数字人团队推出了新的多模态数字人方案 OmniHuman, 其可以对任意尺寸和人物占比的单张图片结合一段输入的音频进行视频生成,生成的人物视频效果生动,具有非常高的自然度。

来自主题: AI技术研报
6035 点击    2025-02-06 13:11
70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?

70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?

70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?

Ilya Sutskever 在 NeurIPS 会上直言:大模型预训练这条路可能已经走到头了。上周的 CES 2025,黄仁勋有提到,在英伟达看来,Scaling Laws 仍在继续,所有新 RTX 显卡都在遵循三个新的扩展维度:预训练、后训练和测试时间(推理),提供了更佳的实时视觉效果。

来自主题: AI技术研报
4183 点击    2025-02-05 13:38
全面梳理200+篇前沿论文,视觉生成模型理解物理世界规律的通关密码,都在这篇综述里了!

全面梳理200+篇前沿论文,视觉生成模型理解物理世界规律的通关密码,都在这篇综述里了!

全面梳理200+篇前沿论文,视觉生成模型理解物理世界规律的通关密码,都在这篇综述里了!

当下,视频生成备受关注,有望成为处理物理知识的 “世界模型” (World Model),助力自动驾驶、机器人等下游任务。然而,当前模型在从 “生成” 迈向世界建模的过程中,存在关键短板 —— 对真实世界物理规律的刻画能力不足。

来自主题: AI技术研报
7422 点击    2025-02-02 19:07
27页综述,354篇参考文献!最详尽的视觉定位综述来了

27页综述,354篇参考文献!最详尽的视觉定位综述来了

27页综述,354篇参考文献!最详尽的视觉定位综述来了

27 页综述,354 篇参考文献!史上最详尽的视觉定位综述,内容覆盖过去十年的视觉定位发展总结,尤其对最近 5 年的视觉定位论文系统性回顾,内容既涵盖传统基于检测器的视觉定位,基于 VLP 的视觉定位,基于 MLLM 的视觉定位,也涵盖从全监督、无监督、弱监督、半监督、零样本、广义定位等新型设置下的视觉定位。

来自主题: AI技术研报
6123 点击    2025-02-01 18:11
新范式,自回归大一统!北大提出VARGPT:单一框架实现视觉「理解」与「生成」

新范式,自回归大一统!北大提出VARGPT:单一框架实现视觉「理解」与「生成」

新范式,自回归大一统!北大提出VARGPT:单一框架实现视觉「理解」与「生成」

VARGPT是一种新型多模态大模型,能够在单一框架内实现视觉理解和生成任务。通过预测下一个token完成视觉理解,预测下一个scale完成视觉生成,展现出强大的混合模态输入输出能力。

来自主题: AI技术研报
6765 点击    2025-01-28 12:07
向视觉版o1出击,阶跃张祥雨团队推出“慢感知”,实现感知层面的推理时scaling

向视觉版o1出击,阶跃张祥雨团队推出“慢感知”,实现感知层面的推理时scaling

向视觉版o1出击,阶跃张祥雨团队推出“慢感知”,实现感知层面的推理时scaling

视觉版o1的初步探索,阶跃星辰&北航团队推出“慢感知”。研究人员认为:1)目前多模领域o1-like的模型,主要关注文本推理,对视觉感知的关注不够。2)精细/深度感知是一个复杂任务,且是未来做视觉推理的重要基础。

来自主题: AI技术研报
4684 点击    2025-01-26 00:18
化解机器人的「幻觉」:北大发布OmniManip,VLM结合双闭环系统,3D理解能力大幅提升

化解机器人的「幻觉」:北大发布OmniManip,VLM结合双闭环系统,3D理解能力大幅提升

化解机器人的「幻觉」:北大发布OmniManip,VLM结合双闭环系统,3D理解能力大幅提升

近年来视觉语⾔基础模型(Vision Language Models, VLMs)在多模态理解和⾼层次常识推理上⼤放异彩,如何将其应⽤于机器⼈以实现通⽤操作是具身智能领域的⼀个核⼼问题。这⼀⽬标的实现受两⼤关键挑战制约:

来自主题: AI技术研报
7209 点击    2025-01-23 13:09
商汤「日日新融合大模型交互版」开放商用,限时免费!

商汤「日日新融合大模型交互版」开放商用,限时免费!

商汤「日日新融合大模型交互版」开放商用,限时免费!

能说会看,还响应快、记性好、算得准——如此完美的AI,ta来了!商汤科技日日新融合大模型交互版(SenseNova-5o),今天正式对外提供实时音视频对话服务,限时免费使用。它是商汤“日日新”融合大模型的交互版本,拥有强大的实时交互、视觉识别、记忆思考、持续对话和复杂推理等能力,能帮助AI与人类更自然、更流畅地交流,让每次互动更加智能与贴心,帮助用户全面提升生活与工作体验。

来自主题: AI资讯
4993 点击    2025-01-20 14:29