AI资讯新闻榜单内容搜索-长视频

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 长视频
长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman

长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman

长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman

随着内容创作智能化需求的爆发,长时长、高质量数字人视频生成始终是行业痛点。近日,字节跳动商业化 GenAI 团队联合浙江大学推出商用级长时序音频驱动人物视频生成模型 ——InfinityHuman,打破传统音频驱动技术在长视频场景中的局限性,开启 AI 数字人实用化新征程

来自主题: AI技术研报
7680 点击    2025-09-04 15:22
告别「面瘫」配音,InfiniteTalk开启从口型同步到全身表达新范式

告别「面瘫」配音,InfiniteTalk开启从口型同步到全身表达新范式

告别「面瘫」配音,InfiniteTalk开启从口型同步到全身表达新范式

传统 video dubbing 技术长期受限于其固有的 “口型僵局”,即仅能编辑嘴部区域,导致配音所传递的情感与人物的面部、肢体表达严重脱节,削弱了观众的沉浸感。现有新兴的音频驱动视频生成模型,在应对长视频序列时也暴露出身份漂移和片段过渡生硬等问题。

来自主题: AI技术研报
8705 点击    2025-08-28 14:32
多模态新旗舰MiniCPM-V 4.5:8B 性能超越 72B,高刷视频理解又准又快

多模态新旗舰MiniCPM-V 4.5:8B 性能超越 72B,高刷视频理解又准又快

多模态新旗舰MiniCPM-V 4.5:8B 性能超越 72B,高刷视频理解又准又快

今天,我们正式开源 8B 参数的面壁小钢炮 MiniCPM-V 4.5 多模态旗舰模型,成为行业首个具备“高刷”视频理解能力的多模态模型,看得准、看得快,看得长!高刷视频理解、长视频理解、OCR、文档解析能力同级 SOTA,且性能超过 Qwen2.5-VL 72B,堪称最强端侧多模态模型。

来自主题: AI资讯
10121 点击    2025-08-26 23:30
突破长视频生成瓶颈:南大、TeleAI推出全新AI生成范式MMPL,让创意一镜到底

突破长视频生成瓶颈:南大、TeleAI推出全新AI生成范式MMPL,让创意一镜到底

突破长视频生成瓶颈:南大、TeleAI推出全新AI生成范式MMPL,让创意一镜到底

你是否曾被 AI 生成视频的惊艳开场所吸引,却在几秒后失望于⾊彩漂移、画面模糊、节奏断裂? 当前 AI 长视频⽣成普遍⾯临 “高开低走 ” 的困境:前几秒惊艳夺⽬ ,之后却质量骤降、细节崩坏;更别提帧间串行生成导致的低效问题 —— 动辄数小时的等待,实时预览几乎难以企及。

来自主题: AI技术研报
6903 点击    2025-08-25 15:33
上下文记忆力媲美Genie3,且问世更早:港大和可灵提出场景一致的交互式视频世界模型

上下文记忆力媲美Genie3,且问世更早:港大和可灵提出场景一致的交互式视频世界模型

上下文记忆力媲美Genie3,且问世更早:港大和可灵提出场景一致的交互式视频世界模型

要让视频生成模型真正成为模拟真实物理世界的「世界模型」,必须具备长时间生成并保留场景记忆的能力。然而,交互式长视频生成一直面临一个致命短板:缺乏稳定的场景记忆。镜头稍作移动再转回,眼前景物就可能「换了个世界」。

来自主题: AI技术研报
8158 点击    2025-08-21 11:25
Sora没做到的,LongVie框架给解决了,超长视频生成SOTA

Sora没做到的,LongVie框架给解决了,超长视频生成SOTA

Sora没做到的,LongVie框架给解决了,超长视频生成SOTA

从 Sora 的惊艳亮相到多款高性能开源模型的诞生,视频生成在过去两年迎来爆发式进步,已能生成几十秒的高质量短片。然而,要想生成时长超过 1 分钟、内容与运动可控、风格统一的超长视频,仍面临巨大挑战。

来自主题: AI技术研报
7618 点击    2025-08-21 11:19
夸克、浙大开源OmniAvatar,一张图+一段音,就能生成长视频

夸克、浙大开源OmniAvatar,一张图+一段音,就能生成长视频

夸克、浙大开源OmniAvatar,一张图+一段音,就能生成长视频

近期,夸克技术团队和浙江大学联合开源了OmniAvatar,这是一个创新的音频驱动全身视频生成模型,只需要输入一张图片和一段音频,OmniAvatar即可生成相应视频,且显著提升了画面中人物的唇形同步细节和全身动作的流畅性。此外,还可通过提示词进一步精准控制人物姿势、情绪、场景等要素。

来自主题: AI资讯
8025 点击    2025-07-25 17:07
提速63%!中科院生成式渲染器突破效率瓶颈,一致性提升20%,破解具身数据荒难题

提速63%!中科院生成式渲染器突破效率瓶颈,一致性提升20%,破解具身数据荒难题

提速63%!中科院生成式渲染器突破效率瓶颈,一致性提升20%,破解具身数据荒难题

具身这么火,面向具身场景的生成式渲染器也来了。 中科院自动化所张兆翔教授团队研发的TC-Light,能够对具身训练任务中复杂和剧烈运动的长视频序列进行逼真的光照与纹理重渲染,同时具备良好的时序一致性和低计算成本开销。

来自主题: AI技术研报
5924 点击    2025-07-21 10:45
EasyCache:无需训练的视频扩散模型推理加速——极简高效的视频生成提速方案

EasyCache:无需训练的视频扩散模型推理加速——极简高效的视频生成提速方案

EasyCache:无需训练的视频扩散模型推理加速——极简高效的视频生成提速方案

近年来,随着扩散模型(Diffusion Models)和扩散 Transformer(DiT)在视频生成领域的广泛应用,AI 合成视频的质量和连贯性有了飞跃式提升。像 OpenAI Sora、HunyuanVideo、Wan2.1 等大模型,已经能够生成结构清晰、细节丰富且高度连贯的长视频内容,为数字内容创作、虚拟世界和多媒体娱乐带来了巨大变革。

来自主题: AI技术研报
7704 点击    2025-07-14 10:42
AI视频生成革命!MIT领衔豪华天团让生成效率暴涨370%,成本直降4.4倍

AI视频生成革命!MIT领衔豪华天团让生成效率暴涨370%,成本直降4.4倍

AI视频生成革命!MIT领衔豪华天团让生成效率暴涨370%,成本直降4.4倍

刷到1分钟AI短视频别只顾着点赞,背后的算力成本让人惊叹。MIT和英伟达等提出的径向注意力技术让长视频生成成本暴降4.4倍,速度飙升3.7倍,AI视频的未来已来!

来自主题: AI技术研报
7865 点击    2025-07-08 11:40