AI资讯新闻榜单内容搜索-框架

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 框架
一文详解:DeepSeek 第五天开源的 3FS 文件系统

一文详解:DeepSeek 第五天开源的 3FS 文件系统

一文详解:DeepSeek 第五天开源的 3FS 文件系统

DeepSeek开源周的最后一天,迎来的是支撑其V3/R1模型全生命周期数据访问需求的核心基础设施 — Fire-Flyer File System(3FS) 和构建于其上的Smallpond数据处理框架。

来自主题: AI技术研报
7832 点击    2025-02-28 11:33
西湖大学提出闭环扩散控制策略,高效与闭环兼得

西湖大学提出闭环扩散控制策略,高效与闭环兼得

西湖大学提出闭环扩散控制策略,高效与闭环兼得

高效闭环控制是复杂系统控制的核心要求。传统控制方法受限于效率与适用性挑战;而新兴的扩散模型虽然表现出色,却难以满足高效闭环控制的要求。西湖大学研究团队最新提出的 CL-DiffPhyCon 框架,通过异步并行去噪技术,在闭环控制要求下,显著提升了控制效率和效果。论文最近被人工智能领域顶级会议 ICLR 2025 接收。

来自主题: AI资讯
6117 点击    2025-02-28 09:48
AI引用正确率仅有4.2- 18.5%,怎么破?「Think&Cite」让AI精准归因生成可信内容

AI引用正确率仅有4.2- 18.5%,怎么破?「Think&Cite」让AI精准归因生成可信内容

AI引用正确率仅有4.2- 18.5%,怎么破?「Think&Cite」让AI精准归因生成可信内容

AI引用正确率仅有4.2- 18.5%,用Deep Research就提高了引用正确率吗?似乎用Think&Cite框架的SG-MCTS和过程奖励机制PRM可以解决引用问题,生成可信内容。

来自主题: AI技术研报
11057 点击    2025-02-27 15:13
月之暗面Kimi的技术一点都不落后。

月之暗面Kimi的技术一点都不落后。

月之暗面Kimi的技术一点都不落后。

2 月 18 日,月之暗面发布了一篇关于稀疏注意力框架 MoBA 的论文。MoBA 框架借鉴了 Mixture of Experts(MoE)的理念,提升了处理长文本的效率,它的上下文长度可扩展至 10M。并且,MoBA 支持在全注意力和稀疏注意力之间无缝切换,使得与现有的预训练模型兼容性大幅提升。

来自主题: AI技术研报
9105 点击    2025-02-23 11:38
斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

斯坦福最新AI Agent序列化证伪假设检验自动化框架,向卡尔·波普尔致敬

在人工智能高速发展的今天,我们似乎迎来了一个"假设爆炸"的时代。大语言模型每天都在产生数以万计的研究假设,它们看似合理,却往往难以验证。这让我不禁想起了20世纪最具影响力的科学哲学家之一——卡尔·波普尔。

来自主题: AI技术研报
9221 点击    2025-02-23 11:13
YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO 系列模型的结构创新一直围绕 CNN 展开,而让 transformer 具有统治优势的 attention 机制一直不是 YOLO 系列网络结构改进的重点。这主要的原因是 attention 机制的速度无法满足 YOLO 实时性的要求。

来自主题: AI技术研报
9504 点击    2025-02-22 14:14
一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

一次推理解决复合问题:基于MoE的大语言模型知识模块可扩展融合推理架构MeteoRA

在大语言模型领域中,预训练 + 微调范式已经成为了部署各类下游应用的重要基础。在该框架下,通过使用搭低秩自适应(LoRA)方法的大模型参数高效微调(PEFT)技术,已经产生了大量针对特定任务、可重用的 LoRA 适配器。

来自主题: AI技术研报
8204 点击    2025-02-22 13:57
比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

自然语言 token 代表的意思通常是表层的(例如 the 或 a 这样的功能性词汇),需要模型进行大量训练才能获得高级推理和对概念的理解能力,

来自主题: AI技术研报
6147 点击    2025-02-16 13:12
网传DeepSeek R1更容易被越狱?这有个入选顶会的防御框架SelfDefend

网传DeepSeek R1更容易被越狱?这有个入选顶会的防御框架SelfDefend

网传DeepSeek R1更容易被越狱?这有个入选顶会的防御框架SelfDefend

近日,来自香港科技大学、南洋理工大学等机构的研究团队最新成果让这一设想成为现实。他们提出的 SelfDefend 框架,让大语言模型首次拥有了真正意义上的 ' 自卫能力 ',能够有效识别和抵御各类越狱攻击,同时保持极低的响应延迟。

来自主题: AI技术研报
5440 点击    2025-02-11 14:48