AI资讯新闻榜单内容搜索-框架

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 框架
LLM「啊哈时刻」竟会自我纠正,单体数学性能暴涨!UIUC华人一作

LLM「啊哈时刻」竟会自我纠正,单体数学性能暴涨!UIUC华人一作

LLM「啊哈时刻」竟会自我纠正,单体数学性能暴涨!UIUC华人一作

LLM在推理任务中表现惊艳,却在自我纠正上的短板却一直令人头疼。UIUC联手马里兰大学全华人团队提出一种革命性的自我奖励推理框架,将生成、评估和纠正能力集成于单一LLM,让模型像人类一样「边想边改」,无需外部帮助即可提升准确性。

来自主题: AI技术研报
7230 点击    2025-03-03 10:28
一文详解:DeepSeek 第五天开源的 3FS 文件系统

一文详解:DeepSeek 第五天开源的 3FS 文件系统

一文详解:DeepSeek 第五天开源的 3FS 文件系统

DeepSeek开源周的最后一天,迎来的是支撑其V3/R1模型全生命周期数据访问需求的核心基础设施 — Fire-Flyer File System(3FS) 和构建于其上的Smallpond数据处理框架。

来自主题: AI技术研报
6434 点击    2025-02-28 11:33
西湖大学提出闭环扩散控制策略,高效与闭环兼得

西湖大学提出闭环扩散控制策略,高效与闭环兼得

西湖大学提出闭环扩散控制策略,高效与闭环兼得

高效闭环控制是复杂系统控制的核心要求。传统控制方法受限于效率与适用性挑战;而新兴的扩散模型虽然表现出色,却难以满足高效闭环控制的要求。西湖大学研究团队最新提出的 CL-DiffPhyCon 框架,通过异步并行去噪技术,在闭环控制要求下,显著提升了控制效率和效果。论文最近被人工智能领域顶级会议 ICLR 2025 接收。

来自主题: AI资讯
5099 点击    2025-02-28 09:48
AI引用正确率仅有4.2- 18.5%,怎么破?「Think&Cite」让AI精准归因生成可信内容

AI引用正确率仅有4.2- 18.5%,怎么破?「Think&Cite」让AI精准归因生成可信内容

AI引用正确率仅有4.2- 18.5%,怎么破?「Think&Cite」让AI精准归因生成可信内容

AI引用正确率仅有4.2- 18.5%,用Deep Research就提高了引用正确率吗?似乎用Think&Cite框架的SG-MCTS和过程奖励机制PRM可以解决引用问题,生成可信内容。

来自主题: AI技术研报
9389 点击    2025-02-27 15:13
月之暗面Kimi的技术一点都不落后。

月之暗面Kimi的技术一点都不落后。

月之暗面Kimi的技术一点都不落后。

2 月 18 日,月之暗面发布了一篇关于稀疏注意力框架 MoBA 的论文。MoBA 框架借鉴了 Mixture of Experts(MoE)的理念,提升了处理长文本的效率,它的上下文长度可扩展至 10M。并且,MoBA 支持在全注意力和稀疏注意力之间无缝切换,使得与现有的预训练模型兼容性大幅提升。

来自主题: AI技术研报
7268 点击    2025-02-23 11:38
斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

在人工智能高速发展的今天,我们似乎迎来了一个"假设爆炸"的时代。大语言模型每天都在产生数以万计的研究假设,它们看似合理,却往往难以验证。这让我不禁想起了20世纪最具影响力的科学哲学家之一——卡尔·波普尔。

来自主题: AI技术研报
8452 点击    2025-02-23 11:13
YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO 系列模型的结构创新一直围绕 CNN 展开,而让 transformer 具有统治优势的 attention 机制一直不是 YOLO 系列网络结构改进的重点。这主要的原因是 attention 机制的速度无法满足 YOLO 实时性的要求。

来自主题: AI技术研报
8148 点击    2025-02-22 14:14
一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

在大语言模型领域中,预训练 + 微调范式已经成为了部署各类下游应用的重要基础。在该框架下,通过使用搭低秩自适应(LoRA)方法的大模型参数高效微调(PEFT)技术,已经产生了大量针对特定任务、可重用的 LoRA 适配器。

来自主题: AI技术研报
6887 点击    2025-02-22 13:57