
每秒生成超30帧视频,支持实时交互!自回归视频生成新框架刷新生成效率
每秒生成超30帧视频,支持实时交互!自回归视频生成新框架刷新生成效率在A100上用310M模型,实现每秒超30帧自回归视频生成,同时画面还保持高质量!
在A100上用310M模型,实现每秒超30帧自回归视频生成,同时画面还保持高质量!
只用6GB显存的笔记本GPU,就能生成流畅的高质量视频!斯坦福研究团队重磅推出FramePack,大幅改善了视频生成中的遗忘和漂移难题。
1月13日Mainframe公司发布了可以离线运行在苹果系统(Mac,iPad,iPhone)的本地大语言模型fullmoon: local intelligence
本文介绍了一篇由浙江大学章国锋教授和商汤科技研究团队联合撰写的论文《StarGen: A Spatiotemporal Autoregression Framework with Video Diffusion Model for Scalable and Controllable Scene Generation》。
近日,《Mechanical System and Signal Processing》(MSSP)在线发表刊登北航 PHM 团队最新研究成果:基于大语言模型的轴承故障诊断框架(LLM-based Framework for Bearing Fault Diagnosis)。
半小时内,两大巨头前后脚放出两大重磅更新,AI视频真是卷疯了!Runway放出生图模型Frames,一键让你拥有特定风格的世界。Luma则把文字、图像、视频全融合,只用自然交互就让脑海中画面成真。
该文章的第一作者陈麒光,目前就读于哈工大赛尔实验室。他的主要研究方向包括大模型思维链、跨语言大模型等。 该研究主要提出了推理边界框架(Reasoning Boundary Framework, RBF),首次尝试量化并优化思维链推理能力。
有了 TEN(Transformative Extensions Network,变革性扩展网络),开发者们终于不用再「绞尽脑汁」了!TEN 是全球首个真正实现实时多模态智能体的框架,不仅能减少开发痛点,还让你轻松从头开始构建下一代 AI 应用。
Coframe是一家能够为客户提供网站编程优化的AI初创公司。该公司于本周二宣布获得了 930 万美元的种子轮融资,
当地时间2024年5月22日,美国众议院外交事务委员会以压倒性多数,通过了一项限制AI模型出口的法案——《加强海外关键出口限制国家框架法案》(Enhancing National Frameworks for Overseas Critical Exports Act / HR 8315,以下简称ENFORCE法案),旨在扩大美国政府监管人工智能系统出口的权力。