AI资讯新闻榜单内容搜索-预训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 预训练
类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

图文大模型通常采用「预训练 + 监督微调」的两阶段范式进行训练,以强化其指令跟随能力。受语言领域的启发,多模态偏好优化技术凭借其在数据效率和性能增益方面的优势,被广泛用于对齐人类偏好。目前,该技术主要依赖高质量的偏好数据标注和精准的奖励模型训练来提升模型表现。然而,这一方法不仅资源消耗巨大,训练过程仍然极具挑战。

来自主题: AI技术研报
9077 点击    2025-04-08 14:18
CLIP被淘汰了?LeCun谢赛宁新作,多模态训练无需语言监督更强!

CLIP被淘汰了?LeCun谢赛宁新作,多模态训练无需语言监督更强!

CLIP被淘汰了?LeCun谢赛宁新作,多模态训练无需语言监督更强!

LeCun谢赛宁等研究人员通过新模型Web-SSL验证了SSL在多模态任务中的潜力,证明其在扩展模型和数据规模后,能媲美甚至超越CLIP。这项研究为无语言监督的视觉预训练开辟新方向,并计划开源模型以推动社区探索。

来自主题: AI技术研报
6909 点击    2025-04-07 15:09
喝点VC|a16z对话心理健康公司Slingshot AI创始人:我们专注于三件事:预训练、微调和对齐

喝点VC|a16z对话心理健康公司Slingshot AI创始人:我们专注于三件事:预训练、微调和对齐

喝点VC|a16z对话心理健康公司Slingshot AI创始人:我们专注于三件事:预训练、微调和对齐

作为一家公司,我们专注于三件事:预训练、微调和对齐。我们使用自有数据集进行预训练,这一点非常关键,而很多公司并不具备这样的能力。然后,我们用专家手工整理的数据进行微调。最有趣、最重要的部分在于对齐,这与简单地寻找“当前最优解”是截然不同的。

来自主题: AI资讯
4831 点击    2025-03-27 14:14
视频生成的测试时Scaling时刻!清华开源Video-T1,无需重新训练让性能飙升

视频生成的测试时Scaling时刻!清华开源Video-T1,无需重新训练让性能飙升

视频生成的测试时Scaling时刻!清华开源Video-T1,无需重新训练让性能飙升

视频作为包含大量时空信息和语义的媒介,对于 AI 理解、模拟现实世界至关重要。视频生成作为生成式 AI 的一个重要方向,其性能目前主要通过增大基础模型的参数量和预训练数据实现提升,更大的模型是更好表现的基础,但同时也意味着更苛刻的计算资源需求。

来自主题: AI技术研报
6955 点击    2025-03-26 14:43
8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源

8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源

8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源

超低成本图像生成预训练方案来了——仅需8张GPU训练,就能实现近SOTA的高质量图像生成效果。

来自主题: AI技术研报
8098 点击    2025-03-18 16:04
统一自监督预训练!视觉模型权重无缝迁移下游任务,SiT收敛提速近47倍

统一自监督预训练!视觉模型权重无缝迁移下游任务,SiT收敛提速近47倍

统一自监督预训练!视觉模型权重无缝迁移下游任务,SiT收敛提速近47倍

最近的研究强调了扩散模型与表征学习之间的相互作用。扩散模型的中间表征可用于下游视觉任务,同时视觉模型表征能够提升扩散模型的收敛速度和生成质量。然而,由于输入不匹配和 VAE 潜在空间的使用,将视觉模型的预训练权重迁移到扩散模型中仍然具有挑战性。

来自主题: AI技术研报
8127 点击    2025-03-17 14:36
3700次预训练总结超参规律,开源海量实验,告别盲猜

3700次预训练总结超参规律,开源海量实验,告别盲猜

3700次预训练总结超参规律,开源海量实验,告别盲猜

近年来,大语言模型 LLMs 在多种任务上的卓越表现已得到广泛认可。然而,要实现其高效部署,精细的超参数优化至关重要。为了探究最佳超参数的规律,我们开展了大规模的实证研究,通过在不同配置上进行网格搜索,我们揭示了一套通用的最优超参数缩放定律(Optimal Hyperparameter Scaling Law)。

来自主题: AI技术研报
8196 点击    2025-03-13 15:15
Ilya错了?Scaling另有他用,ViT大佬力挺谷歌1000亿数据新发现

Ilya错了?Scaling另有他用,ViT大佬力挺谷歌1000亿数据新发现

Ilya错了?Scaling另有他用,ViT大佬力挺谷歌1000亿数据新发现

谷歌发布了1000亿文本-图像对数据集,是此前类似数据集的10倍,创下新纪录!基于新数据集,发现预训练Scaling Law,虽然对模型性能提升不明显,但对于小语种等其他指标提升明显。让ViT大佬翟晓华直呼新发现让人兴奋!

来自主题: AI技术研报
5925 点击    2025-03-10 09:52