
视频推理R1时刻,7B模型反超GPT-4o!港中文清华推出首个Video-R1
视频推理R1时刻,7B模型反超GPT-4o!港中文清华推出首个Video-R1港中文和清华团队推出Video-R1模型,首次将强化学习的R1范式应用于视频推理领域。通过升级的T-GRPO算法和混合图像视频数据集,Video-R1在视频空间推理测试中超越了GPT-4o,展现了强大的推理能力,并且全部代码和数据集均已开源。
港中文和清华团队推出Video-R1模型,首次将强化学习的R1范式应用于视频推理领域。通过升级的T-GRPO算法和混合图像视频数据集,Video-R1在视频空间推理测试中超越了GPT-4o,展现了强大的推理能力,并且全部代码和数据集均已开源。
2025年4月中旬,快手和字节这两个老对手,在AI视频生成领域,再次狭路相逢。先是4月14日,字节跳动的视频生成基础模型Seaweed,低调上线了官网,还释出了技术报告。
在 Sora 之前,就已经受到全世界用户的认可的生成式视频工具是什么?——可灵 AI。无需折腾剪辑软件,几分钟,就能拿到自然如实拍,画面质感如电影的动态视频。
字节Seed团队视频生成基础模型,来了。
虽然扩散模型在视频生成领域展现出了卓越的性能,但是视频扩散模型通常需要大量的推理步骤对高斯噪声进行去噪才能生成一个视频。这个过程既耗时又耗计算资源。例如,HunyuanVideo [1] 需要 3234 秒才能在单张 A100 上生成 5 秒、720×1280、24fps 的视频。
从海底的慢动作漂浮到战场的史诗旋转,这十个视频全是Google Veo 2的神来之笔!它能让你的点子秒变大片级画面,快来围观这场创意狂欢。
AI 圈永远不缺「新活」。
多模态视频异常理解任务,又有新突破!
近年来,视频生成技术在动作真实性方面取得了显著进展,但在角色驱动的叙事生成这一关键任务上仍存在不足,限制了其在自动化影视制作与动画创作中的应用潜力。
动作捕捉,刚刚发生了革命。