AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
用 Agent 重塑生产力!揭秘扣子的史诗级三大更新,还有三个彩蛋!

用 Agent 重塑生产力!揭秘扣子的史诗级三大更新,还有三个彩蛋!

用 Agent 重塑生产力!揭秘扣子的史诗级三大更新,还有三个彩蛋!

LLM Agent 火了两年了,但业界仍然存在许多非共识。智能体数量卷上去了,概念炒上去了,但质量参差不齐,娱乐向的不好玩,提效向的不好用,具体企业落地更是各种大小问题不断。

来自主题: AI资讯
5136 点击    2025-04-10 09:41
Llama 4五大疑点曝光,逐层扒皮!全球AI进步停滞,NYU教授称Scaling彻底结束

Llama 4五大疑点曝光,逐层扒皮!全球AI进步停滞,NYU教授称Scaling彻底结束

Llama 4五大疑点曝光,逐层扒皮!全球AI进步停滞,NYU教授称Scaling彻底结束

刚刚,一位AI公司CEO细细扒皮了关于Llama 4的五大疑点。甚至有圈内人表示,Llama 4证明Scaling已经结束了,LLM并不能可靠推理。但更可怕的事,就是全球的AI进步恐将彻底停滞。

来自主题: AI技术研报
7300 点击    2025-04-09 09:49
三个LLM顶一个OpenAI?2亿条性能记录加持,路由n个「小」模型逆袭

三个LLM顶一个OpenAI?2亿条性能记录加持,路由n个「小」模型逆袭

三个LLM顶一个OpenAI?2亿条性能记录加持,路由n个「小」模型逆袭

路由LLM是指一种通过router动态分配请求到若干候选LLM的机制。论文提出且开源了针对router设计的全面RouterEval基准,通过整合8500+个LLM在12个主流Benchmark上的2亿条性能记录。将大模型路由问题转化为标准的分类任务,使研究者可在单卡甚至笔记本电脑上开展前沿研究。

来自主题: AI技术研报
5044 点击    2025-04-08 14:26
LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

LLM幻觉,竟因知识「以大欺小」!华人团队祭出对数线性定律与CoDA策略

来自UIUC等大学的华人团队,从LLM的基础机制出发,揭示、预测并减少幻觉!通过实验,研究人员揭示了LLM的知识如何相互影响,总结了幻觉的对数线性定律。更可预测、更可控的语言模型正在成为现实。

来自主题: AI技术研报
7189 点击    2025-04-07 14:55
三思而后行,让大模型推理更强的秘密是「THINK TWICE」?

三思而后行,让大模型推理更强的秘密是「THINK TWICE」?

三思而后行,让大模型推理更强的秘密是「THINK TWICE」?

近年来,大语言模型(LLM)的性能提升逐渐从训练时规模扩展转向推理阶段的优化,这一趋势催生了「测试时扩展(test-time scaling)」的研究热潮。

来自主题: AI技术研报
8515 点击    2025-04-06 16:55
7B扩散LLM,居然能跟671B的DeepSeek V3掰手腕,扩散vs自回归,谁才是未来?

7B扩散LLM,居然能跟671B的DeepSeek V3掰手腕,扩散vs自回归,谁才是未来?

7B扩散LLM,居然能跟671B的DeepSeek V3掰手腕,扩散vs自回归,谁才是未来?

语言是离散的,所以适合用自回归模型来生成;而图像是连续的,所以适合用扩散模型来生成。在生成模型发展早期,这种刻板印象广泛存在于很多研究者的脑海中。

来自主题: AI技术研报
6091 点击    2025-04-06 16:48
从0到1玩转MCP:AI的「万能插头」,代码手把手教你!

从0到1玩转MCP:AI的「万能插头」,代码手把手教你!

从0到1玩转MCP:AI的「万能插头」,代码手把手教你!

在人工智能飞速发展的今天,LLM 的能力令人叹为观止,但其局限性也日益凸显 —— 它们往往被困于训练数据的「孤岛」,无法直接触及实时信息或外部工具。

来自主题: AI技术研报
8140 点击    2025-04-06 15:58