AI资讯新闻榜单内容搜索-LLMs

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLMs
大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

在大语言模型(LLMs)后训练任务中,由于高质量的特定领域数据十分稀缺,合成数据已成为重要资源。虽然已有多种方法被用于生成合成数据,但合成数据的理论理解仍存在缺口。为了解决这一问题,本文首先对当前流行的合成数据生成过程进行了数学建模。

来自主题: AI技术研报
6499 点击    2024-10-15 18:38
NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。

来自主题: AI技术研报
6248 点击    2024-10-11 13:55
Anaconda将LLMs能力赋能到笔记本电脑,推出新型桌面应用程序AI Navigator

Anaconda将LLMs能力赋能到笔记本电脑,推出新型桌面应用程序AI Navigator

Anaconda将LLMs能力赋能到笔记本电脑,推出新型桌面应用程序AI Navigator

知名开源数据科学平台提供商Anaconda 今天宣布推出AI Navigator,这是一款新型桌面应用程序,允许用户在笔记本电脑或个人电脑上本地运行一系列人工智能应用的大型语言模型(LLMs),而无需将任何数据发送到云服务器。

来自主题: AI资讯
2825 点击    2024-10-02 11:28
端到端优化所有能力,字节跳动提出强化学习LLM Agent框架AGILE

端到端优化所有能力,字节跳动提出强化学习LLM Agent框架AGILE

端到端优化所有能力,字节跳动提出强化学习LLM Agent框架AGILE

大语言模型(Large Language Models, LLMs)的强大能力推动了 LLM Agent 的迅速发展。围绕增强 LLM Agent 的能力,近期相关研究提出了若干关键组件或工作流。然而,如何将核心要素集成到一个统一的框架中,能够进行端到端优化,仍然是一个亟待解决的问题。

来自主题: AI资讯
6796 点击    2024-09-30 16:06
首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

扩展多模态大语言模型(MLLMs)的长上下文能力对于视频理解、高分辨率图像理解以及多模态智能体至关重要。这涉及一系列系统性的优化,包括模型架构、数据构建和训练策略,尤其要解决诸如随着图像增多性能下降以及高计算成本等挑战。

来自主题: AI技术研报
7463 点击    2024-09-21 18:19
战胜100多位NLP研究人员!杨笛一团队最新百页论文:首次统计学上证明,LLM生成的idea新颖性优于人类

战胜100多位NLP研究人员!杨笛一团队最新百页论文:首次统计学上证明,LLM生成的idea新颖性优于人类

战胜100多位NLP研究人员!杨笛一团队最新百页论文:首次统计学上证明,LLM生成的idea新颖性优于人类

斯坦福大学的最新研究通过大规模实验发现,尽管大型语言模型(LLMs)在新颖性上优于人类专家的想法,但在可行性方面略逊一筹,还需要进一步研究以提高其实用性。

来自主题: AI技术研报
9533 点击    2024-09-17 23:12
COLM 24 | 从正确中学习?大模型的自我纠正新视角

COLM 24 | 从正确中学习?大模型的自我纠正新视角

COLM 24 | 从正确中学习?大模型的自我纠正新视角

大型语言模型(LLMs)虽然进展很快,很强大,但是它们仍然存在会产生幻觉、生成有害内容和不遵守人类指令等问题。一种流行的解决方案就是基于【自我纠正】,大概就是看自己输出的结果,自己反思一下有没有错,如果有错就自己改正。目前自己纠正还是比较关注于让大模型从错误中进行学习。

来自主题: AI技术研报
8146 点击    2024-09-17 21:26
你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

上下文学习(In-Context Learning, ICL)是指LLMs能够仅通过提示中给出的少量样例,就迅速掌握并执行新任务的能力。这种“超能力”让LLMs表现得像是一个"万能学习者",能够在各种场景下快速适应并产生高质量输出。然而,关于ICL的内部机制,学界一直存在争议。

来自主题: AI资讯
4781 点击    2024-09-11 10:17
一文搞懂SFT、RLHF、DPO、IFT

一文搞懂SFT、RLHF、DPO、IFT

一文搞懂SFT、RLHF、DPO、IFT

SFT、RLHF 和 DPO 都是先估计 LLMs 本身的偏好,再与人类的偏好进行对齐

来自主题: AI资讯
5929 点击    2024-08-22 17:04
LLM推理性能受输出格式影响,JSON最严重

LLM推理性能受输出格式影响,JSON最严重

LLM推理性能受输出格式影响,JSON最严重

输出格式不同,竟然还能影响大模型发挥?!

来自主题: AI资讯
9760 点击    2024-08-16 21:15