AI资讯新闻榜单内容搜索-Deep

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Deep
本地知识库+智谱开源GLM-Z1-Air,安全私密、回答速度飞快!效果突破新高度【含MCP玩法】

本地知识库+智谱开源GLM-Z1-Air,安全私密、回答速度飞快!效果突破新高度【含MCP玩法】

本地知识库+智谱开源GLM-Z1-Air,安全私密、回答速度飞快!效果突破新高度【含MCP玩法】

大家好,我是袋鼠帝上个月底,智谱发布了一个非常牛逼的产品AutoGLM沉思版(国内首个免费使用的DeepResearch),它既能推理,又能动手,还能接管你的浏览器帮你干活儿。

来自主题: AI技术研报
7649 点击    2025-04-15 16:11
诺奖得主震撼宣言:AI一年完成10亿年「博士研究时间」!

诺奖得主震撼宣言:AI一年完成10亿年「博士研究时间」!

诺奖得主震撼宣言:AI一年完成10亿年「博士研究时间」!

诺奖得主Demis Hassabis表示,通过AI,DeepMind团队在一年里,完成了10亿年的博士研究时间!10亿年的科学探索被压缩到了一年之内,或许这才代表了AI技术的最高使命。

来自主题: AI资讯
7022 点击    2025-04-15 10:25
榨干3000元显卡,跑通千亿级大模型的秘方来了

榨干3000元显卡,跑通千亿级大模型的秘方来了

榨干3000元显卡,跑通千亿级大模型的秘方来了

书接上回,用几块3000元显卡作为加速主力的一体机,就能跑通671B的DeepSeek。

来自主题: AI资讯
5847 点击    2025-04-15 10:15
过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

随着 OpenAI o1 和 DeepSeek R1 的爆火,大语言模型(LLM)的推理能力增强和测试时扩展(TTS)受到广泛关注。然而,在复杂推理问题中,如何精准评估模型每一步回答的质量,仍然是一个亟待解决的难题。传统的过程奖励模型(PRM)虽能验证推理步骤,但受限于标量评分机制,难以捕捉深层逻辑错误,且其判别式建模方式限制了测试时的拓展能力。

来自主题: AI技术研报
6985 点击    2025-04-14 14:39
推理AI「脑补」成瘾,废话拉满!马里兰华人学霸揭开内幕

推理AI「脑补」成瘾,废话拉满!马里兰华人学霸揭开内幕

推理AI「脑补」成瘾,废话拉满!马里兰华人学霸揭开内幕

研究发现,推理模型(如DeepSeek-R1、o1)遇到「缺失前提」(MiP)的问题时,这些模型往往表现失常:回答长度激增、计算资源浪费。本文基于马里兰大学和利哈伊大学的最新研究,深入剖析推理模型在MiP问题上的「过度思考」现象,揭示其背后的行为模式,带你一窥当前AI推理能力的真实边界。

来自主题: AI技术研报
5858 点击    2025-04-14 14:05
AI奥数大奖出炉,英伟达摘桂冠!14B破解34题暴击DeepSeek R1

AI奥数大奖出炉,英伟达摘桂冠!14B破解34题暴击DeepSeek R1

AI奥数大奖出炉,英伟达摘桂冠!14B破解34题暴击DeepSeek R1

AIMO2最终结果出炉了!英伟达团队NemoSkills拔得头筹,凭借14B小模型破解了34道奥数题,完胜DeepSeek R1。

来自主题: AI资讯
5929 点击    2025-04-14 11:42
奥特曼:ChatGPT不是AGI!OpenAI最强开源模型直击DeepSeek

奥特曼:ChatGPT不是AGI!OpenAI最强开源模型直击DeepSeek

奥特曼:ChatGPT不是AGI!OpenAI最强开源模型直击DeepSeek

代码截图泄露,满血版o3、o4-mini锁定下周!更劲爆的是,一款据称是OpenAI的神秘模型一夜爆红,每日处理高达260亿token,是Claude用量4倍。奥特曼在TED放话:将推超强开源模型,直面DeepSeek挑战。

来自主题: AI资讯
9015 点击    2025-04-14 09:38
最强32B中文推理大模型易主:Skywork-OR1 开源免费商用,1/20 DeepSeek-R1参数量SOTA,权重代码数据集全开源

最强32B中文推理大模型易主:Skywork-OR1 开源免费商用,1/20 DeepSeek-R1参数量SOTA,权重代码数据集全开源

最强32B中文推理大模型易主:Skywork-OR1 开源免费商用,1/20 DeepSeek-R1参数量SOTA,权重代码数据集全开源

千亿参数内最强推理大模型,刚刚易主了。32B——DeepSeek-R1的1/20参数量;免费商用;且全面开源——模型权重、训练数据集和完整训练代码,都开源了。这就是刚刚亮相的Skywork-OR1 (Open Reasoner 1)系列模型——

来自主题: AI资讯
8965 点击    2025-04-13 23:34
Claude 4六个月内发布!Anthropic联创Kaplan:AGI两三年内到来

Claude 4六个月内发布!Anthropic联创Kaplan:AGI两三年内到来

Claude 4六个月内发布!Anthropic联创Kaplan:AGI两三年内到来

Anthropic联合创始人兼首席科学家Jared Kaplan抛出重磅预测:人类水平的AI(AGI)可能在2-3年内实现,而非此前预计的2030年。从AI能力的飞速扩展到Claude 4的即将发布,再到DeepSeek等全球竞争者的崛起,Kaplan为我们揭示了AI领域的最新突破与挑战。

来自主题: AI资讯
7684 点击    2025-04-13 10:33