AI资讯新闻榜单内容搜索-TIM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: TIM
简单吧,Agent优化就两种路径,有参数优化和无参数优化,你选哪种 | 最新综述

简单吧,Agent优化就两种路径,有参数优化和无参数优化,你选哪种 | 最新综述

简单吧,Agent优化就两种路径,有参数优化和无参数优化,你选哪种 | 最新综述

本文基于一项系统性研究《A Survey on the Optimization of Large Language Model-based Agents》,该研究由华东师大和东华大学多位人工智能领域的研究者共同完成。研究团队通过对大量相关文献的分析,构建了一个全面的LLM智能体优化框架,涵盖了从理论基础到实际应用的各个方面。您有兴趣可以找来读一下这篇综述。

来自主题: AI技术研报
5431 点击    2025-03-25 16:33
一个算法让LLM创新能力暴增,原来是AI学会了进化

一个算法让LLM创新能力暴增,原来是AI学会了进化

一个算法让LLM创新能力暴增,原来是AI学会了进化

如果你让当今的 LLM 给你生成一个创意时钟设计,使用提示词「a creative time display」,它可能会给出这样的结果:

来自主题: AI技术研报
8578 点击    2025-03-20 16:15
Nature | 基因组所贾耿介团队联合中国科大、新加坡中央医院团队开发出预测肝癌术后复发风险的高精度AI诊断工具

Nature | 基因组所贾耿介团队联合中国科大、新加坡中央医院团队开发出预测肝癌术后复发风险的高精度AI诊断工具

Nature | 基因组所贾耿介团队联合中国科大、新加坡中央医院团队开发出预测肝癌术后复发风险的高精度AI诊断工具

肝癌是全球癌症相关死亡的第三大原因,手术切除后的复发率高达70%,如何准确预测肿瘤手术切除后复发风险是一个难题。

来自主题: AI技术研报
7656 点击    2025-03-17 16:56
AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?

AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?

AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?

大语言模型(LLM)近年来凭借训练时扩展(train-time scaling)取得了显著性能提升。然而,随着模型规模和数据量的瓶颈显现,测试时扩展(test-time scaling)成为进一步释放潜力的新方向。

来自主题: AI技术研报
7851 点击    2025-03-16 12:42
MM-Eureka:极少数据实现多模态推理的R1-Zero时刻

MM-Eureka:极少数据实现多模态推理的R1-Zero时刻

MM-Eureka:极少数据实现多模态推理的R1-Zero时刻

尽管 DeepSeek-R1 在单模态推理中取得了显著成功,但已有的多模态尝试(如 R1-V、R1-Multimodal-Journey、LMM-R1)尚未完全复现其核心特征。

来自主题: AI技术研报
7995 点击    2025-03-14 15:32
3700次预训练总结超参规律,开源海量实验,告别盲猜

3700次预训练总结超参规律,开源海量实验,告别盲猜

3700次预训练总结超参规律,开源海量实验,告别盲猜

近年来,大语言模型 LLMs 在多种任务上的卓越表现已得到广泛认可。然而,要实现其高效部署,精细的超参数优化至关重要。为了探究最佳超参数的规律,我们开展了大规模的实证研究,通过在不同配置上进行网格搜索,我们揭示了一套通用的最优超参数缩放定律(Optimal Hyperparameter Scaling Law)。

来自主题: AI技术研报
9302 点击    2025-03-13 15:15
精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

TimeDistill通过知识蒸馏,将复杂模型(如Transformer和CNN)的预测能力迁移到轻量级的MLP模型中,专注于提取多尺度和多周期模式,显著提升MLP的预测精度,同时保持高效计算能力,为时序预测提供了一种高效且精准的解决方案。

来自主题: AI技术研报
8150 点击    2025-03-10 09:35
DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码

DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码

DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码

GRPO(Group Relative Policy Optimization)是 DeepSeek-R1 成功的基础技术之一,我们之前也多次报道过该技术,比如《DeepSeek 用的 GRPO 占用大量内存?有人给出了些破解方法》。

来自主题: AI技术研报
9226 点击    2025-03-02 15:14
微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

Phi-4系列模型上新了!56亿参数Phi-4-multimodal集语音、视觉、文本多模态于一体,读图推理性能碾压GPT-4o;另一款38亿参数Phi-4-mini在推理、数学、编程等任务中超越了参数更大的LLM,支持128K token上下文。

来自主题: AI技术研报
6073 点击    2025-02-28 14:11
基于 LLM 的查询扩展:信息更全,搜索更准

基于 LLM 的查询扩展:信息更全,搜索更准

基于 LLM 的查询扩展:信息更全,搜索更准

最初,查询扩展是为那些靠关键词匹配来判断相关性的搜索系统设计的,比如 tf-idf 或其他稀疏向量方案。这类方法有些天然的缺陷:词语稍微变个形式,像 "ran" 和 "running",或者 "optimise" 和 "optimize",都会影响匹配结果。虽然可以用语言预处理来解决一部分问题,但远远不够。技术术语、同义词和相关词就更难处理了。

来自主题: AI技术研报
8212 点击    2025-02-21 08:50