AI资讯新闻榜单内容搜索-微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调
NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

自我纠错(Self Correction)能力,传统上被视为人类特有的特征,正越来越多地在人工智能领域,尤其是大型语言模型(LLMs)中得到广泛应用,最近爆火的OpenAI o1模型[1]和Reflection 70B模型[2]都采取了自我纠正的方法。

来自主题: AI技术研报
5642 点击    2024-11-18 14:54
首个多模态连续学习综述,港中文、清华、UIC联合发布

首个多模态连续学习综述,港中文、清华、UIC联合发布

首个多模态连续学习综述,港中文、清华、UIC联合发布

连续学习(CL)旨在增强机器学习模型的能力,使其能够不断从新数据中学习,而无需进行所有旧数据的重新训练。连续学习的主要挑战是灾难性遗忘:当任务按顺序训练时,新的任务训练会严重干扰之前学习的任务的性能,因为不受约束的微调会使参数远离旧任务的最优状态。

来自主题: AI技术研报
4826 点击    2024-11-13 16:02
小米上新二代大模型!窗口长度翻至50倍,平均性能提升超45%

小米上新二代大模型!窗口长度翻至50倍,平均性能提升超45%

小米上新二代大模型!窗口长度翻至50倍,平均性能提升超45%

小米大模型第二代来了! 相比第一代,训练数据规模更大、品质更高,训练策略与微调机制上也进行了深入打磨。

来自主题: AI技术研报
5653 点击    2024-11-13 09:12
NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

NeurIPS 2024 Oral | 小参数,大作为!揭秘非对称 LoRA 架构的高效性能

大型语言模型(LLMs)虽然在适应新任务方面取得了长足进步,但它们仍面临着巨大的计算资源消耗,尤其在复杂领域的表现往往不尽如人意。

来自主题: AI技术研报
4975 点击    2024-10-20 16:58
以图灵机为师:通过微调训练让大语言模型懂执行计算过程

以图灵机为师:通过微调训练让大语言模型懂执行计算过程

以图灵机为师:通过微调训练让大语言模型懂执行计算过程

大型语言模型 (LLM) 在各种自然语言处理和推理任务中表现出卓越的能力,某些应用场景甚至超越了人类的表现。然而,这类模型在最基础的算术问题的表现上却不尽如人意。

来自主题: AI技术研报
4829 点击    2024-10-18 13:54
百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

百万鲁棒数据训练,3D场景大语言模型新SOTA!IIT等发布Robin3D

Robin3D通过鲁棒指令数据生成引擎(RIG)生成的大规模数据进行训练,以提高模型在3D场景理解中的鲁棒性和泛化能力,在多个3D多模态学习基准测试中取得了优异的性能,超越了以往的方法,且无需针对特定任务的微调。

来自主题: AI技术研报
7252 点击    2024-10-15 14:39
「世界开源新王」跌落神坛?重测跑分暴跌实锤造假,2人团队光速「滑跪」

「世界开源新王」跌落神坛?重测跑分暴跌实锤造假,2人团队光速「滑跪」

「世界开源新王」跌落神坛?重测跑分暴跌实锤造假,2人团队光速「滑跪」

「开源新王」Reflection 70B,才发布一个月就跌落神坛了? 9月5日,Hyperwrite AI联创兼CEO Matt Shumer在X上扔出一则爆炸性消息—— 用Meta的开源Llama 3.1-70B,团队微调出了Reflection 70B。

来自主题: AI资讯
4132 点击    2024-10-07 13:57