AI资讯新闻榜单内容搜索-Deep

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Deep
你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

最近,工业界“RAG已死”甚嚣尘上。过去几年,AI领域的主旋律是“规模定律”(Scaling Law),即更大的模型、更多的数据会带来更好的性能。即便偶然有瑕疵,也认为只是工程上的不足,并非数学上的不可能。

来自主题: AI技术研报
8987 点击    2025-09-03 11:54
第一性原理视角下的MoE推理的经济学分析

第一性原理视角下的MoE推理的经济学分析

第一性原理视角下的MoE推理的经济学分析

随着DeepSeek R1、Kimi K2和DeepSeek V3.1混合专家(MoE)模型的相继发布,它们已成为智能前沿领域大语言模型(LLM)的领先架构。由于其庞大的规模(1万亿参数及以上)和稀疏计算模式(每个token仅激活部分参数而非整个模型),MoE式LLM对推理工作负载提出了重大挑战,显著改变了底层的推理经济学。

来自主题: AI技术研报
7211 点击    2025-09-03 11:22
DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态

DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态

DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态

当前,业界顶尖的大模型正竞相挑战“过度思考”的难题,即无论问题简单与否,它们都采用 “always-on thinking” 的详细推理模式。无论是像 DeepSeek-V3.1 这种依赖混合推理架构提供需用户“手动”介入的快慢思考切换,还是如 GPT-5 那样通过依赖庞大而高成本的“专家路由”机制提供的自适应思考切换。

来自主题: AI技术研报
6472 点击    2025-09-02 12:27
CEO卷款夜逃迪拜,15亿美元独角兽爆雷,700印度码农冒充AI,坑惨微软

CEO卷款夜逃迪拜,15亿美元独角兽爆雷,700印度码农冒充AI,坑惨微软

CEO卷款夜逃迪拜,15亿美元独角兽爆雷,700印度码农冒充AI,坑惨微软

Builder.ai自称用AI简化软件开发,吸引微软、软银等巨额投资,估值一度超15亿美元。但实际靠人工冒充AI,财务造假被起诉。而这么做的,不止Builder.ai这一家! 两年前,快公司Fast Company评选出AI领域最具创新性的前10家公司,OpenAI、谷歌DeepMind、Builder.ai当选Top3,而英伟达位居第9。

来自主题: AI资讯
8154 点击    2025-09-02 12:16
每月20元!智谱GLM-4.5杀入Claude Code,开启编程API“包月”时代

每月20元!智谱GLM-4.5杀入Claude Code,开启编程API“包月”时代

每月20元!智谱GLM-4.5杀入Claude Code,开启编程API“包月”时代

这段时间 AI 编程的热度完全没退,一个原因是国内接连推出开源了不少针对编程优化的大模型,主打长上下文、Agent 智能体、工具调用,几乎成了标配,成了 Claude Code 的国产替代,比如 GLM-4.5、DeepSeek V3.1、Kimi K2。

来自主题: AI资讯
10515 点击    2025-09-02 11:41
搜索基础,价格就不基础 - 搜索居然能零元购了!

搜索基础,价格就不基础 - 搜索居然能零元购了!

搜索基础,价格就不基础 - 搜索居然能零元购了!

“搜索调用太贵了。一次 Deep Research 任务可能消耗数百次搜索调用,成本一下子就突破数十美元” ,无论是个人开发者还是AI应用公司都明显有这种感觉。

来自主题: AI资讯
7441 点击    2025-09-02 10:56
王兴一鸣惊人!美团首个开源大模型追平DeepSeek-V3.1

王兴一鸣惊人!美团首个开源大模型追平DeepSeek-V3.1

王兴一鸣惊人!美团首个开源大模型追平DeepSeek-V3.1

没想到啊,最新SOTA的开源大模型…… 来自一个送外卖(Waimai)的——有两个AI,确实不一样。 这个最新开源模型叫:Longcat-Flash-Chat,美团第一个开源大模型,发布即开源,已经在海内外的技术圈子里火爆热议了。

来自主题: AI资讯
8580 点击    2025-09-01 15:12
DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费

在最近的一档脱口秀节目中,演员张俊调侃 DeepSeek 是一款非常「内耗」的 AI,连个「1 加 1 等于几」都要斟酌半天。

来自主题: AI资讯
6767 点击    2025-08-31 13:17