AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
用子模优化法为DeepResearch生成多样性查询

用子模优化法为DeepResearch生成多样性查询

用子模优化法为DeepResearch生成多样性查询

在开发DeepResearch时,生成多样化的查询 (query) 是一个关键细节。我们在开发时会在至少两处遇到这个问题。

来自主题: AI技术研报
7911 点击    2025-07-07 15:25
重塑AI记忆边界:MemOS开源!时序推理较OpenAI提升159%

重塑AI记忆边界:MemOS开源!时序推理较OpenAI提升159%

重塑AI记忆边界:MemOS开源!时序推理较OpenAI提升159%

大模型记忆管理和优化框架是当前各大厂商争相优化的热点方向,MemOS 相比现有 OpenAI 的全局记忆在大模型记忆评测集上呈现出显著的提升,平均准确性提升超过 38.97%,Tokens 的开销进一步降低 60.95%,一举登顶记忆管理的 SOTA 框架,特别是在考验框架时序建模与检索能力的时序推理任务上,提升比例更是达到了 159%,相当震撼!

来自主题: AI技术研报
6819 点击    2025-07-07 14:44
复杂空间指令也能秒懂?RoboRefer 让机器人理解推理空间,开放世界也能精准行动!

复杂空间指令也能秒懂?RoboRefer 让机器人理解推理空间,开放世界也能精准行动!

复杂空间指令也能秒懂?RoboRefer 让机器人理解推理空间,开放世界也能精准行动!

机器人走出实验室、进入真实世界真正可用,远比想象中更复杂。现实环境常常杂乱无序、物体种类繁多、灵活多变,远不像实验室那样干净、单一、可控。

来自主题: AI技术研报
8815 点击    2025-07-07 11:46
750城市+5000小时第一人称视频,上海AI Lab开源面向世界探索高质量视频数据集

750城市+5000小时第一人称视频,上海AI Lab开源面向世界探索高质量视频数据集

750城市+5000小时第一人称视频,上海AI Lab开源面向世界探索高质量视频数据集

现在,国内研究机构就从数据基石的角度出发,拿出了还原真实动态世界的新进展:上海人工智能实验室、北京理工大学、上海创智学院、东京大学等机构聚焦世界生成的第一步——世界探索,联合推出一个持续迭代的高质量视频数据集项目——Sekai(日语意为“世界”),服务于交互式视频生成、视觉导航、视频理解等任务,旨在利用图像、文本或视频构建一个动态且真实的世界,可供用户不受限制进行交互探索。

来自主题: AI技术研报
5907 点击    2025-07-07 11:22
Test Time Scaling Law远未达到上限! o4-mini仅15.8%通过率,华为诺亚提出代码HLCE终极基准

Test Time Scaling Law远未达到上限! o4-mini仅15.8%通过率,华为诺亚提出代码HLCE终极基准

Test Time Scaling Law远未达到上限! o4-mini仅15.8%通过率,华为诺亚提出代码HLCE终极基准

大语言模型(LLM)在标准编程基准测试(如 HumanEval,Livecodebench)上已经接近 “毕业”,但这是否意味着它们已经掌握了人类顶尖水平的复杂推理和编程能力?

来自主题: AI技术研报
5939 点击    2025-07-07 10:39
集成20+先进算法,优于GPT-4o,自主因果分析智能体来了

集成20+先进算法,优于GPT-4o,自主因果分析智能体来了

集成20+先进算法,优于GPT-4o,自主因果分析智能体来了

想象这样一个场景:你是一位生物学家,手握基因表达数据,直觉告诉你某些基因之间存在调控关系,但如何科学地验证这种关系?你听说过 "因果发现" 这个词,但对于具体算法如 PC、GES 就连名字都非常陌生。

来自主题: AI技术研报
6804 点击    2025-07-07 10:22
Diffusion约2倍无损加速!训练-推理协同的缓存学习框架来了| HKUST&北航&商汤

Diffusion约2倍无损加速!训练-推理协同的缓存学习框架来了| HKUST&北航&商汤

Diffusion约2倍无损加速!训练-推理协同的缓存学习框架来了| HKUST&北航&商汤

面对扩散模型推理速度慢、成本高的问题,HKUST&北航&商汤提出了全新缓存加速方案——HarmoniCa:训练-推理协同的特征缓存加速框架,突破DiT架构在部署端的速度瓶颈,成功实现高性能无损加速。

来自主题: AI技术研报
6396 点击    2025-07-06 15:05
原来Scaling Law还能被优化?Meta这招省token又提效

原来Scaling Law还能被优化?Meta这招省token又提效

原来Scaling Law还能被优化?Meta这招省token又提效

2017 年,一篇《Attention Is All You Need》论文成为 AI 发展的一个重要分水岭,其中提出的 Transformer 依然是现今主流语言模型的基础范式。尤其是在基于 Transformer 的语言模型的 Scaling Law 得到实验验证后,AI 领域的发展更是进入了快车道。

来自主题: AI技术研报
5818 点击    2025-07-06 14:56