AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
扩散模型奖励微调新突破:Nabla-GFlowNet让多样性与效率兼得

扩散模型奖励微调新突破:Nabla-GFlowNet让多样性与效率兼得

扩散模型奖励微调新突破:Nabla-GFlowNet让多样性与效率兼得

本文作者刘圳是香港中文大学(深圳)数据科学学院的助理教授,肖镇中是德国马克思普朗克-智能系统研究所和图宾根大学的博士生,刘威杨是德国马克思普朗克-智能系统研究所的研究员,Yoshua Bengio 是蒙特利尔大学和加拿大 Mila 研究所的教授,张鼎怀是微软研究院的研究员。此论文已收录于 ICLR 2025。

来自主题: AI技术研报
7820 点击    2025-04-13 15:49
谢赛宁等新作上线,多模态理解生成大一统!思路竟与GPT-4o相似?

谢赛宁等新作上线,多模态理解生成大一统!思路竟与GPT-4o相似?

谢赛宁等新作上线,多模态理解生成大一统!思路竟与GPT-4o相似?

来自Meta和NYU的团队,刚刚提出了一种MetaQuery新方法,让多模态模型瞬间解锁多模态生成能力!令人惊讶的是,这种方法竟然如此简单,就实现了曾被认为需要MLLM微调才能具备的能力。

来自主题: AI技术研报
7223 点击    2025-04-13 14:11
类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

图文大模型通常采用「预训练 + 监督微调」的两阶段范式进行训练,以强化其指令跟随能力。受语言领域的启发,多模态偏好优化技术凭借其在数据效率和性能增益方面的优势,被广泛用于对齐人类偏好。目前,该技术主要依赖高质量的偏好数据标注和精准的奖励模型训练来提升模型表现。然而,这一方法不仅资源消耗巨大,训练过程仍然极具挑战。

来自主题: AI技术研报
10268 点击    2025-04-08 14:18
Midjourney V7内测图首曝,电影级画质干翻GPT-4o!人物蜡像感消失,AI生图迎最强地震

Midjourney V7内测图首曝,电影级画质干翻GPT-4o!人物蜡像感消失,AI生图迎最强地震

Midjourney V7内测图首曝,电影级画质干翻GPT-4o!人物蜡像感消失,AI生图迎最强地震

这周,Midjourney即将带着全新V7强势归来。内部模型已训完,目前开启了评分系统,进入最后微调阶段。网友已放出生图,效果惊艳,画质细腻度拉满。

来自主题: AI资讯
11236 点击    2025-03-31 17:39
模型调优无需标注数据!将Llama 3.3 70B直接提升到GPT-4o水平

模型调优无需标注数据!将Llama 3.3 70B直接提升到GPT-4o水平

模型调优无需标注数据!将Llama 3.3 70B直接提升到GPT-4o水平

最近,AI 公司 Databricks 推出了一种新的调优方法 TAO,只需要输入数据,无需标注数据即可完成。更令人惊喜的是,TAO 在性能上甚至超过了基于标注数据的监督微调。

来自主题: AI技术研报
8238 点击    2025-03-30 14:33
喝点VC|a16z对话心理健康公司Slingshot AI创始人:我们专注于三件事:预训练、微调和对齐

喝点VC|a16z对话心理健康公司Slingshot AI创始人:我们专注于三件事:预训练、微调和对齐

喝点VC|a16z对话心理健康公司Slingshot AI创始人:我们专注于三件事:预训练、微调和对齐

作为一家公司,我们专注于三件事:预训练、微调和对齐。我们使用自有数据集进行预训练,这一点非常关键,而很多公司并不具备这样的能力。然后,我们用专家手工整理的数据进行微调。最有趣、最重要的部分在于对齐,这与简单地寻找“当前最优解”是截然不同的。

来自主题: AI资讯
5970 点击    2025-03-27 14:14
超越DeepSeek-R1关键RL算法GRPO,CMU「元强化微调」新范式登场

超越DeepSeek-R1关键RL算法GRPO,CMU「元强化微调」新范式登场

超越DeepSeek-R1关键RL算法GRPO,CMU「元强化微调」新范式登场

大语言模型(LLM)在推理领域的最新成果表明了通过扩展测试时计算来提高推理能力的潜力,比如 OpenAI 的 o1 系列。

来自主题: AI技术研报
7613 点击    2025-03-13 14:41