AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
微软警告:大模型ICL并非真正意义上的学习,你的AI Agent随时可能“失忆”

微软警告:大模型ICL并非真正意义上的学习,你的AI Agent随时可能“失忆”

微软警告:大模型ICL并非真正意义上的学习,你的AI Agent随时可能“失忆”

上下文学习”(In-Context Learning,ICL),是大模型不需要微调(fine-tuning),仅通过分析在提示词中给出的几个范例,就能解决当前任务的能力。您可能已经对这个场景再熟悉不过了:您在提示词里扔进去几个例子,然后,哇!大模型似乎瞬间就学会了一项新技能,表现得像个天才。

来自主题: AI技术研报
6233 点击    2025-09-18 14:44
来自MIT的最新研究-RL's Razor|展望LLMs Post-Training下的前沿探索与思考

来自MIT的最新研究-RL's Razor|展望LLMs Post-Training下的前沿探索与思考

来自MIT的最新研究-RL's Razor|展望LLMs Post-Training下的前沿探索与思考

来自MIT Improbable AI Lab的研究者们最近发表了一篇题为《RL's Razor: Why Online Reinforcement Learning Forgets Less》的论文,系统性地回答了这个问题,他们不仅通过大量实验证实了这一现象,更进一步提出了一个简洁而深刻的解释,并将其命名为 “RL's Razor”(RL的剃刀)。

来自主题: AI技术研报
6488 点击    2025-09-18 14:26
从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」

这项名为 MachineLearningLM 的新研究突破了这一瓶颈。该研究提出了一种轻量且可移植的「继续预训练」框架,无需下游微调即可直接通过上下文学习上千条示例,在金融、健康、生物信息、物理等等多个领域的二分类 / 多分类任务中的准确率显著超越基准模型(Qwen-2.5-7B-Instruct)以及最新发布的 GPT-5-mini。

来自主题: AI技术研报
7987 点击    2025-09-17 09:30
腾讯混元升级AI绘画微调范式,在整个扩散轨迹上优化,人工评估分数提升300%

腾讯混元升级AI绘画微调范式,在整个扩散轨迹上优化,人工评估分数提升300%

腾讯混元升级AI绘画微调范式,在整个扩散轨迹上优化,人工评估分数提升300%

让AI生成的图像更符合人类精细偏好,在32块H20上训练10分钟就能收敛。腾讯混元新方法让微调的FLUX1.dev模型人工评估的真实感和美学评分提高3倍以上。

来自主题: AI技术研报
7293 点击    2025-09-15 15:51
3.5亿参数模型媲美ChatGPT-4o?Liquid AI发布的日英翻译模型给出答案

3.5亿参数模型媲美ChatGPT-4o?Liquid AI发布的日英翻译模型给出答案

3.5亿参数模型媲美ChatGPT-4o?Liquid AI发布的日英翻译模型给出答案

在大模型的竞赛中,参数规模往往被视为性能的决定性因素。但近期,Liquid AI 的研究团队提出了一个不同寻常的案例:一个仅有 3.5 亿参数的模型,经过微调后,竟能在中短上下文的实时日语英语翻译任务上,与 GPT-4o 竞争。

来自主题: AI资讯
6172 点击    2025-09-09 12:19
不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

在大型语言模型(LLM)进行数学题、逻辑推理等复杂任务时,一个非常流行且有效的方法叫做 “自洽性”(Self-Consistency),通常也被称为“平行思考”。

来自主题: AI技术研报
6059 点击    2025-09-09 10:17
苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?

苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?

苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?

在这场以大型语言模型(LLM)为核心的 AI 浪潮中,苹果似乎一直保持着低调,很少出现在技术报道的前沿。尽管如此,时不时地,该公司也能拿出一些非常亮眼的研究成果,比如能在 iPhone 上直接运行的高效视觉语言模型 FastVLM。

来自主题: AI技术研报
8186 点击    2025-09-03 13:04
你的设想被证实了!不微调模型也能微调Agent,Memento霸榜GAIA|UCL最新

你的设想被证实了!不微调模型也能微调Agent,Memento霸榜GAIA|UCL最新

你的设想被证实了!不微调模型也能微调Agent,Memento霸榜GAIA|UCL最新

你或许也有过这样的猜想,如何让AI智能体(Agent)变得更聪明、更能干,同时又不用烧掉堆积如山的算力去反复微调模型?

来自主题: AI技术研报
8691 点击    2025-09-01 09:58
秋招超强助攻:零基础1小时上手GPT微调!全流程教程免费开源

秋招超强助攻:零基础1小时上手GPT微调!全流程教程免费开源

秋招超强助攻:零基础1小时上手GPT微调!全流程教程免费开源

针对OpenAI最新开源的GPT-OSS,这一篇面向零基础小白用户的手把手式的详细训练教程或许能帮助你完成你的第一个GPT训练项目。

来自主题: AI资讯
6993 点击    2025-08-29 16:39
从繁杂技巧到极简方案:ROLL团队带来RL4LLM新实践

从繁杂技巧到极简方案:ROLL团队带来RL4LLM新实践

从繁杂技巧到极简方案:ROLL团队带来RL4LLM新实践

近年来,强化学习(Reinforcement Learning, RL)在提升大语言模型(LLM)复杂推理能力方面展现出显著效果,广泛应用于数学解题、代码生成等任务。通过 RL 微调的模型常在推理性能上超越仅依赖监督微调或预训练的模型。

来自主题: AI技术研报
6730 点击    2025-08-22 16:35