AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: LLM
程序员为何容易爱上AI?MIT学者诊断:「智性恋」浓度过高!

程序员为何容易爱上AI?MIT学者诊断:「智性恋」浓度过高!

程序员为何容易爱上AI?MIT学者诊断:「智性恋」浓度过高!

OpenAI警告说,跟人工智能语音聊天可能会产生「情感依赖」。这种情感依赖是怎么产生的呢?MIT的一项研究指出,这可能是「求仁得仁」的结果,无怪乎连软件工程师也会对AI着迷。

来自主题: AI技术研报
7890 点击    2024-08-24 16:08
LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

Emory大学的研究团队提出了一种创新的方法,将大语言模型(LLM)在文本图(Text-Attributed Graph, 缩写为TAG)学习中的强大能力蒸馏到本地模型中,以应对文本图学习中的数据稀缺、隐私保护和成本问题。通过训练一个解释器模型来理解LLM的推理过程,并对学生模型进行对齐优化,在多个数据集上实现了显著的性能提升,平均提高了6.2%。

来自主题: AI技术研报
10057 点击    2024-08-23 16:35
LLM数学性能暴涨168%,微软14人团队力作!合成数据2.0秘诀曝光,智能体生成教学

LLM数学性能暴涨168%,微软14人团队力作!合成数据2.0秘诀曝光,智能体生成教学

LLM数学性能暴涨168%,微软14人团队力作!合成数据2.0秘诀曝光,智能体生成教学

合成数据2.0秘诀曝光了!来自微软的研究人员们提出了智能体框架AgentInstruct,能够自动创建大量、多样化的合成数据。经过合成数据微调后的模型Orca-3,在多项基准上刷新了SOTA。

来自主题: AI技术研报
8672 点击    2024-08-19 14:52
世界模型又近了?MIT惊人研究:LLM已模拟现实世界,绝非随机鹦鹉!

世界模型又近了?MIT惊人研究:LLM已模拟现实世界,绝非随机鹦鹉!

世界模型又近了?MIT惊人研究:LLM已模拟现实世界,绝非随机鹦鹉!

MIT CSAIL的研究人员发现,LLM的「内心深处」已经发展出了对现实的模拟,模型对语言和世界的理解,绝不仅仅是简单的「鹦鹉学舌」。也就说,在未来,LLM会比今天更深层地理解语言。

来自主题: AI资讯
9214 点击    2024-08-18 10:34
LLM推理性能受输出格式影响,JSON最严重

LLM推理性能受输出格式影响,JSON最严重

LLM推理性能受输出格式影响,JSON最严重

输出格式不同,竟然还能影响大模型发挥?!

来自主题: AI资讯
9588 点击    2024-08-16 21:15
DeepMind科学家:LLM没有过度炒作!亲身分享50个AI用例让工作效率飞升50%

DeepMind科学家:LLM没有过度炒作!亲身分享50个AI用例让工作效率飞升50%

DeepMind科学家:LLM没有过度炒作!亲身分享50个AI用例让工作效率飞升50%

现存的LLM是否真的有用?在工作中真实使用LLM的场景都有哪些?谷歌DeepMind科学家详细分享了他是如何「玩转」AI,帮助自己提质增效的。

来自主题: AI资讯
5604 点击    2024-08-16 14:54
CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

T-MAC是一种创新的基于查找表(LUT)的方法,专为在CPU上高效执行低比特大型语言模型(LLMs)推理而设计,无需权重反量化,支持混合精度矩阵乘法(mpGEMM),显著降低了推理开销并提升了计算速度。

来自主题: AI资讯
5130 点击    2024-08-13 17:42
ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

在过去的几年中,大型语言模型(Large Language Models, LLMs)在自然语言处理(NLP)领域取得了突破性的进展。这些模型不仅能够理解复杂的语境,还能够生成连贯且逻辑严谨的文本。

来自主题: AI技术研报
8700 点击    2024-08-11 13:25
CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA

CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA

CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA

LLM数学水平不及小学生怎么办?CMU清华团队提出了Lean-STaR训练框架,在语言模型进行推理的每一步中都植入CoT,提升了模型的定理证明能力,成为miniF2F上的新SOTA。

来自主题: AI技术研报
6098 点击    2024-08-10 11:45