AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
搞定Agent的"失忆症",TME树状记忆引擎让Agent再也不会"忘记"之前做过什么。| 最新

搞定Agent的"失忆症",TME树状记忆引擎让Agent再也不会"忘记"之前做过什么。| 最新

搞定Agent的"失忆症",TME树状记忆引擎让Agent再也不会"忘记"之前做过什么。| 最新

开发Agent的工程师们都曾面临同一个棘手问题:当任务步骤增多,你的Agent就像患上"数字健忘症",忘记之前做过什么,无法处理用户的修改请求,甚至在多轮对话中迷失自我。不仅用户体验受损,token开销也居高不下。TME树状记忆引擎通过结构化状态管理方案,彻底解决了这一痛点,让你的Agent像拥有完美记忆力的助手,在复杂任务中游刃有余,同时将token消耗降低26%。

来自主题: AI技术研报
7181 点击    2025-04-15 10:31
诺奖得主震撼宣言:AI一年完成10亿年「博士研究时间」!

诺奖得主震撼宣言:AI一年完成10亿年「博士研究时间」!

诺奖得主震撼宣言:AI一年完成10亿年「博士研究时间」!

诺奖得主Demis Hassabis表示,通过AI,DeepMind团队在一年里,完成了10亿年的博士研究时间!10亿年的科学探索被压缩到了一年之内,或许这才代表了AI技术的最高使命。

来自主题: AI资讯
7151 点击    2025-04-15 10:25
榨干3000元显卡,跑通千亿级大模型的秘方来了

榨干3000元显卡,跑通千亿级大模型的秘方来了

榨干3000元显卡,跑通千亿级大模型的秘方来了

书接上回,用几块3000元显卡作为加速主力的一体机,就能跑通671B的DeepSeek。

来自主题: AI资讯
5976 点击    2025-04-15 10:15
GPT-4.1深夜登场,中科大校友领队!百万上下文编程惊人,GPT-4.5三个月后淘汰

GPT-4.1深夜登场,中科大校友领队!百万上下文编程惊人,GPT-4.5三个月后淘汰

GPT-4.1深夜登场,中科大校友领队!百万上下文编程惊人,GPT-4.5三个月后淘汰

OpenAI重磅发布的GPT-4.1系列模型,带来了编程、指令跟随和长上下文处理能力的全面飞跃!由中科大校友Jiahui Yu领衔的团队打造。与此同时,备受争议的GPT-4.5将在三个月后停用,GPT-4.1 nano则以最小、最快、最便宜的姿态强势登场。

来自主题: AI资讯
9518 点击    2025-04-15 08:53
Gemini 2.5编程全球霸榜,谷歌重回AI王座!神秘模型曝光,奥特曼迎战

Gemini 2.5编程全球霸榜,谷歌重回AI王座!神秘模型曝光,奥特曼迎战

Gemini 2.5编程全球霸榜,谷歌重回AI王座!神秘模型曝光,奥特曼迎战

刚刚,Gemini 2.5 Pro编程登顶,6美元性价比碾压Claude 3.7 Sonnet。不仅如此,谷歌还暗藏着更强的编程模型Dragontail,这次是要彻底翻盘了。

来自主题: AI资讯
7881 点击    2025-04-14 19:38
刚刚,AI破解50年未解数学难题!南大校友用OpenAI模型完成首个非平凡数学证明

刚刚,AI破解50年未解数学难题!南大校友用OpenAI模型完成首个非平凡数学证明

刚刚,AI破解50年未解数学难题!南大校友用OpenAI模型完成首个非平凡数学证明

AI辅助人类,完成了首个非平凡研究数学证明,破解了50年未解的数学难题!在南大校友的研究中,这个难题中q=3的情况,由o3-mini-high给出了精确解。

来自主题: AI技术研报
7175 点击    2025-04-14 17:10
阿里智能化研发起飞!RTP-LLM 实现 Cursor AI 1000 token/s 推理技术揭秘

阿里智能化研发起飞!RTP-LLM 实现 Cursor AI 1000 token/s 推理技术揭秘

阿里智能化研发起飞!RTP-LLM 实现 Cursor AI 1000 token/s 推理技术揭秘

RTP-LLM 是阿里巴巴大模型预测团队开发的高性能 LLM 推理加速引擎。它在阿里巴巴集团内广泛应用,支撑着淘宝、天猫、高德、饿了么等核心业务部门的大模型推理需求。在 RTP-LLM 上,我们实现了一个通用的投机采样框架,支持多种投机采样方法,能够帮助业务有效降低推理延迟以及提升吞吐。

来自主题: AI技术研报
6180 点击    2025-04-14 15:13
过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

随着 OpenAI o1 和 DeepSeek R1 的爆火,大语言模型(LLM)的推理能力增强和测试时扩展(TTS)受到广泛关注。然而,在复杂推理问题中,如何精准评估模型每一步回答的质量,仍然是一个亟待解决的难题。传统的过程奖励模型(PRM)虽能验证推理步骤,但受限于标量评分机制,难以捕捉深层逻辑错误,且其判别式建模方式限制了测试时的拓展能力。

来自主题: AI技术研报
7127 点击    2025-04-14 14:39
更长思维并不等于更强推理性能,强化学习可以很简洁

更长思维并不等于更强推理性能,强化学习可以很简洁

更长思维并不等于更强推理性能,强化学习可以很简洁

今天早些时候,著名研究者和技术作家 Sebastian Raschka 发布了一条推文,解读了一篇来自 Wand AI 的强化学习研究,其中分析了推理模型生成较长响应的原因。

来自主题: AI技术研报
8120 点击    2025-04-14 14:17