
为什么AI做的动画一眼就能看出来
为什么AI做的动画一眼就能看出来动画片和我们拍摄的视频其实还是有很大不一样的。一般来说,我们平时观看的大多数电视剧使用25帧/秒的帧率,大多数电影使用24帧/秒的帧率。对于摄像机而言,帧率的调节无非是改一改摄影设备的参数,即使是胶片时代,也仅仅是胶片使用量的区别,对人工影响不大。
动画片和我们拍摄的视频其实还是有很大不一样的。一般来说,我们平时观看的大多数电视剧使用25帧/秒的帧率,大多数电影使用24帧/秒的帧率。对于摄像机而言,帧率的调节无非是改一改摄影设备的参数,即使是胶片时代,也仅仅是胶片使用量的区别,对人工影响不大。
最近终于有时间来测试一下最新版的据说超级强的可灵2.0,想着来都来了不如顺便就把Veo 2也一起测了。前几天可灵2.0在北京有发布会,我没有去,主要是比较忙,最主要是可灵也没邀请我,不过还好,Veo 2也没邀请我,让我可以非常好地保持住自己的客观。
在GitHub狂揽1w+星标的通义万相Wan2.1,又双叒上新了!
基于Transformer的自回归架构在语言建模上取得了显著成功,但在图像生成领域,扩散模型凭借强大的生成质量和可控性占据了主导地位。
最近,来自大连理工和莫纳什大学的团队提出了物理真实的视频生成框架 VLIPP。通过利用视觉语言模型来将物理规律注入到视频扩散模型的方法来提升视频生成中的物理真实性。
“AI小作坊”究竟是如何做到的?
港中文和清华团队推出Video-R1模型,首次将强化学习的R1范式应用于视频推理领域。通过升级的T-GRPO算法和混合图像视频数据集,Video-R1在视频空间推理测试中超越了GPT-4o,展现了强大的推理能力,并且全部代码和数据集均已开源。
2025年4月中旬,快手和字节这两个老对手,在AI视频生成领域,再次狭路相逢。先是4月14日,字节跳动的视频生成基础模型Seaweed,低调上线了官网,还释出了技术报告。
在 Sora 之前,就已经受到全世界用户的认可的生成式视频工具是什么?——可灵 AI。无需折腾剪辑软件,几分钟,就能拿到自然如实拍,画面质感如电影的动态视频。
字节Seed团队视频生成基础模型,来了。