领先于Transformer!新架构首个1200万上下文模型SubQ,成本仅Opus的5%
领先于Transformer!新架构首个1200万上下文模型SubQ,成本仅Opus的5%你有没有想过,为什么 AI 读一篇短文游刃有余,却在面对一整个代码库时频频出错?
来自主题: AI技术研报
5576 点击 2026-05-06 14:57
搜索
你有没有想过,为什么 AI 读一篇短文游刃有余,却在面对一整个代码库时频频出错?
在人工智能领域,大语言模型(LLMs)展现出了令人惊叹的能力,但在因果推理这一人类智能的核心能力上仍面临重大挑战。特别是在从相关性信息推断因果关系这一任务上,现有的大语言模型表现出明显的不足。