AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

大型语言模型(LLMs)虽然在适应新任务方面取得了长足进步,但它们仍面临着巨大的计算资源消耗,尤其在复杂领域的表现往往不尽如人意。

来自主题: AI技术研报
4347 点击    2024-10-20 16:58
以图灵机为师:通过微调训练让大语言模型懂执行计算过程

以图灵机为师:通过微调训练让大语言模型懂执行计算过程

以图灵机为师:通过微调训练让大语言模型懂执行计算过程

大型语言模型 (LLM) 在各种自然语言处理和推理任务中表现出卓越的能力,某些应用场景甚至超越了人类的表现。然而,这类模型在最基础的算术问题的表现上却不尽如人意。

来自主题: AI技术研报
4373 点击    2024-10-18 13:54
百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

Robin3D通过鲁棒指令数据生成引擎(RIG)生成的大规模数据进行训练,以提高模型在3D场景理解中的鲁棒性和泛化能力,在多个3D多模态学习基准测试中取得了优异的性能,超越了以往的方法,且无需针对特定任务的微调。

来自主题: AI技术研报
6428 点击    2024-10-15 14:39
「世界开源新王」跌落神坛?重测跑分暴跌实锤造假,2人团队光速「滑跪」

「世界开源新王」跌落神坛?重测跑分暴跌实锤造假,2人团队光速「滑跪」

「世界开源新王」跌落神坛?重测跑分暴跌实锤造假,2人团队光速「滑跪」

「开源新王」Reflection 70B,才发布一个月就跌落神坛了? 9月5日,Hyperwrite AI联创兼CEO Matt Shumer在X上扔出一则爆炸性消息—— 用Meta的开源Llama 3.1-70B,团队微调出了Reflection 70B。

来自主题: AI资讯
3084 点击    2024-10-07 13:57
OpenAI 开发者大会!实时语音功能有API了,GPT-4o支持多模态微调,上下文cache功能上线

OpenAI 开发者大会!实时语音功能有API了,GPT-4o支持多模态微调,上下文cache功能上线

OpenAI 开发者大会!实时语音功能有API了,GPT-4o支持多模态微调,上下文cache功能上线

十一假期第1天, OpenAI一年一度的开发者大会又来了惹!今年的开发者大会分成三部分分别在美国、英国、新加坡三个地点举办,刚刚结束的是第一场。

来自主题: AI资讯
3112 点击    2024-10-03 13:07
利用公开知识定向提升大模型,腾讯优图&上交大提出新方法,性能达SOTA

利用公开知识定向提升大模型,腾讯优图&上交大提出新方法,性能达SOTA

利用公开知识定向提升大模型,腾讯优图&上交大提出新方法,性能达SOTA

告别传统指令微调,大模型特定任务性能提升有新方法了。 一种新型开源增强知识框架,可以从公开数据中自动提取相关知识,针对性提升任务性能。 与基线和SOTA方法对比,本文方法在各项任务上均取得了更好的性能。

来自主题: AI资讯
3326 点击    2024-09-29 15:59
斯坦福新作:无指令调优的指令遵循

斯坦福新作:无指令调优的指令遵循

斯坦福新作:无指令调优的指令遵循

指令调优(Instruction tuning)是一种优化技术,通过对模型的输入进行微调,以使其更好地适应特定任务。先前的研究表明,指令调优样本效率是很高效的,只需要大约 1000 个指令-响应对或精心制作的提示和少量指令-响应示例即可。

来自主题: AI技术研报
3220 点击    2024-09-26 11:06
文档处理效能飙升!浩鲸科技“文档大模型”核心技术揭秘!

文档处理效能飙升!浩鲸科技“文档大模型”核心技术揭秘!

文档处理效能飙升!浩鲸科技“文档大模型”核心技术揭秘!

在当今大模型技术日新月异的背景下,数据已跃升为构建企业大模型知识库、优化训练与微调,乃至驱动模型创新不可或缺的核心要素。

来自主题: AI资讯
6763 点击    2024-09-25 20:18