告别「偏科」,UniVid实现视频理解与生成一体化

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
告别「偏科」,UniVid实现视频理解与生成一体化
7254点击    2025-10-21 10:17

在视频生成与理解的赛道上,常常见到分头发力的模型:有的专注做视频生成,有的专注做视频理解(如问答、分类、检索等)。而最近,一个开源项目 UniVid,提出了一个「融合」方向:把理解 + 生成融为一体 —— 他们希望用一个统一的模型,兼顾「看懂视频」+「生成视频」的能力。


告别「偏科」,UniVid实现视频理解与生成一体化


这就像把「看图识物」和「画图创作」两件事,交给同一个大脑去做:理解一段文字 + 理解已有视频内容 → 再「画」出新的、连贯的视频 —— 这在技术上挑战极大。


告别「偏科」,UniVid实现视频理解与生成一体化


  • 论文标题:UniVid: The Open-Source Unified Video Model
  • 论文地址:https://arxiv.org/abs/2509.24200


UniVid 想解决什么问题?


UniVid 尝试把视频「理解」与「生成」融合为一体,构建出一个真正通用的统一视频模型(Unified Video Model),一个既能「理解」又能「生成」的视频多模态模型。


核心创新

1.统一结构:Adapter-based Unified Architecture


告别「偏科」,UniVid实现视频理解与生成一体化


在传统方案中,理解模型和生成模型是完全分开的系统,训练开销大、互通困难。要把它们融合,需要重新训练一个庞大的联合模型,成本极高。


本文采用适配器(Adapter)插入机制,在已有多模态大语言模型中插入轻量模块,使其具备视频生成能力。这样,理解模块 + 生成模块可以共享大部分参数,只需训练少量新增参数。


优势:

  • 显著降低训练开销与算力成本;
  • 提高模型扩展性:已有理解能力的模型能「平滑地」插入生成能力;
  • 兼顾理解与生成,不牺牲已有强大的视觉 / 语言理解基础。


2. 温控对齐:Temperature Modality Alignment

在跨模态(文本 → 视频)生成中,文本与视觉之间表示尺度、语义强度往往不匹配。若直接融合注意力或特征,很容易出现「提示偏移」(Prompt Drift):生成的视频越偏离最初的文字意图。


本文提出模态温度对齐机制(Temperature Modality Alignment)。在跨模态注意力层中对不同模态(文本 / 视觉特征)引入温度系数(类似 softmax 温度调节),动态调节它们的注意力权重与融合强度。在生成过程的早期阶段,更高权重给文本提示以加强语义引导;在后期阶段,则逐渐让视觉特征主导细节优化。


这能够有效减少提示偏移,提高语义一致性;让模型在「理解 → 生成」过程中过渡更自然;保证最终视频既符合提示,又具备高质量视觉细节。


3. 金字塔反射:Pyramid Reflection


告别「偏科」,UniVid实现视频理解与生成一体化


视频是时序数据,理解和建模长时域依赖(远帧之间的关联)成本极高。传统 Transformer 全帧注意力的计算量呈平方级增长,难以扩展。


本文提出金字塔反射机制(Pyramid Reflection)

  • 在理解任务中采用 Reflector 模块,通过动态选择关键帧,并在金字塔层次上进行「反射 / 聚合」操作;
  • 将帧序列映射到不同时间尺度,自底向上或自顶向下反射信息,使模型能在多个尺度上捕捉时序关系。


在视频 QA / 时序理解任务中,PR 模块结合 Actor – Evaluator – Reflector 循环结构,让模型能用最少的帧达到准确推理结果。


实验结果:打败 SOTA?

UniVid 在视频生成与理解两大方向上,都达到了同级模型最优表现。


1. 视频生成:VBench 全维度刷新记录

测试基准:VBench-Long,是目前最严格的视频生成综合评测集,涵盖多个维度:


  • 技术质量(Technical Quality)
  • 美学质量(Aesthetic Quality)
  • 语义一致性(Semantic Fidelity)
  • 对象 / 动作 / 场景 / 时序等细粒度指标


告别「偏科」,UniVid实现视频理解与生成一体化


UniVid 的成绩不仅在总分上超越所有主流视频生成模型,更在关键维度上超越同级:


  • Temporal Consistency(时序一致性):99.88(几乎满分);
  • Motion Smoothness(运动平滑度):99.25;
  • Semantic Alignment(语义一致性):80.58(领先 EasyAnimate 的 77.01);
  • Imaging Quality(影像质量):73.03(显著高于其他模型)。


UniVid 在生成的同时,极大提升了语义契合度与画面连贯性。


告别「偏科」,UniVid实现视频理解与生成一体化

与顶尖视频生成模型的比较


2. 视频理解:多项问答任务登顶

在视频问答(Video Question Answering, Video-QA)任务中,UniVid 同样登顶多个主流基准。


告别「偏科」,UniVid实现视频理解与生成一体化


UniVid 在 MSVD-QA 和 ActivityNet-QA 上均创造新纪录,并在更复杂的长时序视频上展现出卓越的时序推理与语义理解能力。


告别「偏科」,UniVid实现视频理解与生成一体化

与顶尖视频生成模型的比较


Demo 展示


为了让大家更直观地理解 UniVid 的能力,研究团队还准备了视频 Demo,涵盖视频生成和视频理解两类任务。


视频生成:


告别「偏科」,UniVid实现视频理解与生成一体化


从左到右的 prompt 分别是:

  • Mouse with large teeth aggressively eating cheese.
  • A white cat in sunglasses relaxes on a surfboard at the beach under a sunny sky.
  • Ten fluffy kittens eat breakfast together in warm sunlight.


视频理解:


告别「偏科」,UniVid实现视频理解与生成一体化


应用价值与意义


1. 视频创作与生成

在影视、广告、短视频等场景中,创作者只需输入文字脚本或图像提示,UniVid 就能自动生成连贯、符合语义逻辑的视频。它能「理解」剧情后再去「创作镜头」,让内容生产更自然、更高效。


2. 视频理解与分析

UniVid 还能看懂视频。无论是体育赛事、监控画面还是教学视频,它都能识别动作、人物、事件逻辑,生成精准摘要或问答结果。让机器不仅看到画面,更「理解故事」。


3. 机器人与具身智能

在机器人导航、自动驾驶或智能体系统中,UniVid 可以理解摄像头输入并生成未来场景预测,帮助智能体进行规划与决策。它让机器人不仅「看得到」,还能「想得出下一步」。


4. 开源生态与科研价值

与闭源视频模型不同,UniVid 的代码开源,任何研究者或开发者都可自由使用、复现、二次开发。它为视频智能研究提供了一个通用底座,也让产业界能以更低成本构建自己的视频生成系统。


作者介绍


罗嘉滨是北京大学软微与微电子学院在读博士生,研究兴趣为多智能体系统、多模态生成、RAG、AI 安全。曾参与多项科研项目,长期致力于构建安全可信的 AGI。


林峻辉是北京师范大学在读本科生,AI Geek 成员,研究兴趣为图像,视频生成与处理。曾参与多项科研项目,积极探索有趣且有用的计算机视觉模型。


张泽宇是 Richard Hartley 教授和 Ian Reid 教授指导的本科研究员。他的研究兴趣扎根于计算机视觉领域,专注于探索几何生成建模与前沿基础模型之间的潜在联系。张泽宇在多个研究领域拥有丰富的经验,积极探索人工智能基础和应用领域的前沿进展。


唐浩现任北京大学计算机学院助理教授 / 研究员、博士生导师、博雅和未名青年学者,入选国家级海外高水平人才计划。曾获国家优秀自费留学生奖学金,连续三年入选斯坦福大学全球前 2% 顶尖科学家榜单。他曾在美国卡耐基梅隆大学、苏黎世联邦理工学院、英国牛津大学和意大利特伦托大学工作和学习。长期致力于人工智能领域的研究,在国际顶级期刊与会议发表论文 100 余篇,相关成果被引用超过 10000 次。曾获 ACM Multimedia 最佳论文提名奖,现任 ICLR 2026、ACL 2025、EMNLP 2025、ACM MM 2025 领域主席及多个人工智能会议和期刊审稿人。


  • 更多信息参见个人主页: https://ha0tang.github.io/


文章来自于“机器之心”,作者“机器之心”。

关键词: AI , 模型训练 , UniVid , 人工智能
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

4
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0