AI资讯新闻榜单内容搜索-deepseek

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: deepseek
刚刚,微信首个 AI 助手上线!为了抢流量,直接把元宝放微信对话里了!

刚刚,微信首个 AI 助手上线!为了抢流量,直接把元宝放微信对话里了!

刚刚,微信首个 AI 助手上线!为了抢流量,直接把元宝放微信对话里了!

继接入 DeepSeek 后,APPSO 发现名为「元宝」的 AI 助手目前已经正式入驻微信。现在,你可以在微信框搜索「元宝」,亦或者直接扫描二维码图片,将其添加到通讯录,即可与它展开对话。

来自主题: AI资讯
9139 点击    2025-04-16 20:34
迈向推理时代:900+篇参考文献揭示长链思维的前世今生,最全综述来了

迈向推理时代:900+篇参考文献揭示长链思维的前世今生,最全综述来了

迈向推理时代:900+篇参考文献揭示长链思维的前世今生,最全综述来了

近年来,大模型(Large Language Models, LLMs)在数学、编程等复杂任务上取得突破,OpenAI-o1、DeepSeek-R1 等推理大模型(Reasoning Large Language Models,RLLMs)表现尤为亮眼。但它们为何如此强大呢?

来自主题: AI技术研报
8072 点击    2025-04-16 15:00
榨干3000元显卡,跑通千亿级大模型的秘方来了

榨干3000元显卡,跑通千亿级大模型的秘方来了

榨干3000元显卡,跑通千亿级大模型的秘方来了

书接上回,用几块3000元显卡作为加速主力的一体机,就能跑通671B的DeepSeek。

来自主题: AI资讯
5846 点击    2025-04-15 10:15
过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

随着 OpenAI o1 和 DeepSeek R1 的爆火,大语言模型(LLM)的推理能力增强和测试时扩展(TTS)受到广泛关注。然而,在复杂推理问题中,如何精准评估模型每一步回答的质量,仍然是一个亟待解决的难题。传统的过程奖励模型(PRM)虽能验证推理步骤,但受限于标量评分机制,难以捕捉深层逻辑错误,且其判别式建模方式限制了测试时的拓展能力。

来自主题: AI技术研报
6980 点击    2025-04-14 14:39
推理AI「脑补」成瘾,废话拉满!马里兰华人学霸揭开内幕

推理AI「脑补」成瘾,废话拉满!马里兰华人学霸揭开内幕

推理AI「脑补」成瘾,废话拉满!马里兰华人学霸揭开内幕

研究发现,推理模型(如DeepSeek-R1、o1)遇到「缺失前提」(MiP)的问题时,这些模型往往表现失常:回答长度激增、计算资源浪费。本文基于马里兰大学和利哈伊大学的最新研究,深入剖析推理模型在MiP问题上的「过度思考」现象,揭示其背后的行为模式,带你一窥当前AI推理能力的真实边界。

来自主题: AI技术研报
5855 点击    2025-04-14 14:05
AI奥数大奖出炉,英伟达摘桂冠!14B破解34题暴击DeepSeek R1

AI奥数大奖出炉,英伟达摘桂冠!14B破解34题暴击DeepSeek R1

AI奥数大奖出炉,英伟达摘桂冠!14B破解34题暴击DeepSeek R1

AIMO2最终结果出炉了!英伟达团队NemoSkills拔得头筹,凭借14B小模型破解了34道奥数题,完胜DeepSeek R1。

来自主题: AI资讯
5924 点击    2025-04-14 11:42
奥特曼:ChatGPT不是AGI!OpenAI最强开源模型直击DeepSeek

奥特曼:ChatGPT不是AGI!OpenAI最强开源模型直击DeepSeek

奥特曼:ChatGPT不是AGI!OpenAI最强开源模型直击DeepSeek

代码截图泄露,满血版o3、o4-mini锁定下周!更劲爆的是,一款据称是OpenAI的神秘模型一夜爆红,每日处理高达260亿token,是Claude用量4倍。奥特曼在TED放话:将推超强开源模型,直面DeepSeek挑战。

来自主题: AI资讯
9009 点击    2025-04-14 09:38
最强32B中文推理大模型易主:Skywork-OR1 开源免费商用,1/20 DeepSeek-R1参数量SOTA,权重代码数据集全开源

最强32B中文推理大模型易主:Skywork-OR1 开源免费商用,1/20 DeepSeek-R1参数量SOTA,权重代码数据集全开源

最强32B中文推理大模型易主:Skywork-OR1 开源免费商用,1/20 DeepSeek-R1参数量SOTA,权重代码数据集全开源

千亿参数内最强推理大模型,刚刚易主了。32B——DeepSeek-R1的1/20参数量;免费商用;且全面开源——模型权重、训练数据集和完整训练代码,都开源了。这就是刚刚亮相的Skywork-OR1 (Open Reasoner 1)系列模型——

来自主题: AI资讯
8963 点击    2025-04-13 23:34