AI资讯新闻榜单内容搜索-OTA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: OTA
无需百卡集群!港科等开源LightGen: 极低成本文生图方案媲美SOTA模型

无需百卡集群!港科等开源LightGen: 极低成本文生图方案媲美SOTA模型

无需百卡集群!港科等开源LightGen: 极低成本文生图方案媲美SOTA模型

文本到图像(Text-to-Image, T2I)生成任务近年来取得了飞速进展,其中以扩散模型(如 Stable Diffusion、DiT 等)和自回归(AR)模型为代表的方法取得了显著成果。然而,这些主流的生成模型通常依赖于超大规模的数据集和巨大的参数量,导致计算成本高昂、落地困难,难以高效地应用于实际生产环境。

来自主题: AI技术研报
5922 点击    2025-03-20 09:18
全球首个工业界多模态推理模型开源!38B硬刚DeepSeek-R1,训练秘籍全公开

全球首个工业界多模态推理模型开源!38B硬刚DeepSeek-R1,训练秘籍全公开

全球首个工业界多模态推理模型开源!38B硬刚DeepSeek-R1,训练秘籍全公开

全球首个开源多模态推理大模型来了!38B参数模型性能直逼DeepSeek-R1,同尺寸上横扫多项SOTA。而这家中国公司之所以选择无偿将技术思路开源,正是希望同DeepSeek一样,打造开源界的技术影响力。

来自主题: AI技术研报
9186 点击    2025-03-18 19:19
8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源

8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源

8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源

超低成本图像生成预训练方案来了——仅需8张GPU训练,就能实现近SOTA的高质量图像生成效果。

来自主题: AI技术研报
8118 点击    2025-03-18 16:04
Open-Sora 2.0正式发布,11B模型拿下开源视频生成新SOTA!仅用224张GPU训练,训练成本省10倍

Open-Sora 2.0正式发布,11B模型拿下开源视频生成新SOTA!仅用224张GPU训练,训练成本省10倍

Open-Sora 2.0正式发布,11B模型拿下开源视频生成新SOTA!仅用224张GPU训练,训练成本省10倍

224张GPU,训出开源视频生成新SOTA!Open-Sora 2.0正式发布。 11B参数规模,性能可直追HunyuanVideo和Step-Video(30B)。

来自主题: AI资讯
7118 点击    2025-03-13 13:58
ICLR 2025 | 原生3D+流匹配,现有SOTA被GaussianAnything超越

ICLR 2025 | 原生3D+流匹配,现有SOTA被GaussianAnything超越

ICLR 2025 | 原生3D+流匹配,现有SOTA被GaussianAnything超越

在 ICLR 2025 中,来自南洋理工大学 S-Lab、上海 AI Lab、北京大学以及香港大学的研究者提出的基于 Flow Matching 技术的全新 3D 生成框架 GaussianAnything,针对现有问题引入了一种交互式的点云结构化潜空间,实现了可扩展的、高质量的 3D 生成,并支持几何-纹理解耦生成与可控编辑能力。

来自主题: AI技术研报
6718 点击    2025-03-11 16:13
精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

TimeDistill通过知识蒸馏,将复杂模型(如Transformer和CNN)的预测能力迁移到轻量级的MLP模型中,专注于提取多尺度和多周期模式,显著提升MLP的预测精度,同时保持高效计算能力,为时序预测提供了一种高效且精准的解决方案。

来自主题: AI技术研报
7059 点击    2025-03-10 09:35
英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

CVPR 2025,混合新架构MambaVision来了!Mamba+Transformer混合架构专门为CV应用设计。MambaVision 在Top-1精度和图像吞吐量方面实现了新的SOTA,显著超越了基于Transformer和Mamba的模型。

来自主题: AI技术研报
7564 点击    2025-03-08 13:10