AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
2025穷鬼开发套餐:不花一分钱,部署一个AI导航网站全流程,附tap4ai、aigotools 对比

2025穷鬼开发套餐:不花一分钱,部署一个AI导航网站全流程,附tap4ai、aigotools 对比

2025穷鬼开发套餐:不花一分钱,部署一个AI导航网站全流程,附tap4ai、aigotools 对比

对于很多想用 AI 开发产品但不知道做什么的朋友来说,AI导航网站是很好的选择,因为:1. AI热度大,市场需求大,你做的 AI 导航网站就有更大可能被人用上

来自主题: AI技术研报
7932 点击    2025-03-18 12:34
机器人安卓时刻!行业首个通用具身智能平台亮相,国家队全程真机直播

机器人安卓时刻!行业首个通用具身智能平台亮相,国家队全程真机直播

机器人安卓时刻!行业首个通用具身智能平台亮相,国家队全程真机直播

不惧检验,全程线下公开及全球真机实时直播展示,「慧思开物」填补具身智能在通用软件系统方面的空白,颠覆传统机器人应用开发模式,宣告通用具身智能时代的里程碑突破,具身智能「安卓」时刻已经到来,通向通用具身智能时代的「虫洞」已打开。

来自主题: AI技术研报
4793 点击    2025-03-18 12:00
超70%代码基准没有质量保证!港科大最新「指南」全面调研10年274个评测集

超70%代码基准没有质量保证!港科大最新「指南」全面调研10年274个评测集

超70%代码基准没有质量保证!港科大最新「指南」全面调研10年274个评测集

近年来,代码评测集数量激增,但质量参差不齐。为规范其开发,香港科技大学联合多所高校研究了过去十年的274个代码评测集,发现诸多问题,如数据重复、测试用例错误、隐私信息未删除等。基于此,他们推出了《代码评测集发展指南55项》(How2Bench),涵盖设计、构建、评测、分析、发布五大阶段,旨在提升代码评测集的质量与可靠性。

来自主题: AI技术研报
6983 点击    2025-03-18 10:54
Nature | 基因组所贾耿介团队联合中国科大、新加坡中央医院团队开发出预测肝癌术后复发风险的高精度AI诊断工具

Nature | 基因组所贾耿介团队联合中国科大、新加坡中央医院团队开发出预测肝癌术后复发风险的高精度AI诊断工具

Nature | 基因组所贾耿介团队联合中国科大、新加坡中央医院团队开发出预测肝癌术后复发风险的高精度AI诊断工具

肝癌是全球癌症相关死亡的第三大原因,手术切除后的复发率高达70%,如何准确预测肿瘤手术切除后复发风险是一个难题。

来自主题: AI技术研报
6233 点击    2025-03-17 16:56
北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力

北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力

北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力

长文本任务是当下大模型研究的重点之一。在实际场景和应用中,普遍存在大量长序列(文本、语音、视频等),有些甚至长达百万级 tokens。

来自主题: AI技术研报
7215 点击    2025-03-17 16:04
ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

在深度学习的多个应用场景中,联合优化多个损失项是一个普遍的问题。典型的例子包括物理信息神经网络(Physics-Informed Neural Networks, PINNs)、多任务学习(Multi-Task Learning, MTL)和连续学习(Continual Learning, CL)。然而,不同损失项的梯度方向往往相互冲突,导致优化过程陷入局部最优甚至训练失败。

来自主题: AI技术研报
7969 点击    2025-03-17 14:55
统一自监督预训练!视觉模型权重无缝迁移下游任务,SiT收敛提速近47倍

统一自监督预训练!视觉模型权重无缝迁移下游任务,SiT收敛提速近47倍

统一自监督预训练!视觉模型权重无缝迁移下游任务,SiT收敛提速近47倍

最近的研究强调了扩散模型与表征学习之间的相互作用。扩散模型的中间表征可用于下游视觉任务,同时视觉模型表征能够提升扩散模型的收敛速度和生成质量。然而,由于输入不匹配和 VAE 潜在空间的使用,将视觉模型的预训练权重迁移到扩散模型中仍然具有挑战性。

来自主题: AI技术研报
8071 点击    2025-03-17 14:36
想纠正LMM犯错?没用!NUS华人团队:最强o1反馈修正率不到50%

想纠正LMM犯错?没用!NUS华人团队:最强o1反馈修正率不到50%

想纠正LMM犯错?没用!NUS华人团队:最强o1反馈修正率不到50%

LMM在人类反馈下表现如何?新加坡国立大学华人团队提出InterFeedback框架,结果显示,最先进的LMM通过人类反馈纠正结果的比例不到50%!

来自主题: AI技术研报
6937 点击    2025-03-17 09:32
TRACE:因果事件建模助力视频理解大模型的时间定位能力

TRACE:因果事件建模助力视频理解大模型的时间定位能力

TRACE:因果事件建模助力视频理解大模型的时间定位能力

下班回家后你正深陷于一部两小时的综艺节目中,渴望找到那些让人捧腹的爆笑片段,却如同大海捞针。或者,在紧张刺激的足球赛中,你渴望捕捉到那决定性的绝杀瞬间,但传统 AI 视频处理技术效率低下,且模型缺乏泛化能力。为解决这些问题,香港中文大学(深圳)唐晓莹课题组联合腾讯 PCG 发布 TRACE 技术,通过因果事件建模为视频理解大模型提供精准的时间定位能力。

来自主题: AI技术研报
7957 点击    2025-03-17 09:19
谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌团队发现了全新Scaling Law!新方法DiLoCo被证明更好、更快、更强,可在多个数据中心训练越来越大的LLM。

来自主题: AI技术研报
5280 点击    2025-03-16 16:09
港大90后开源,OpenAI 2万刀博士级AI智能体平替!自主研究媲美顶会论文

港大90后开源,OpenAI 2万刀博士级AI智能体平替!自主研究媲美顶会论文

港大90后开源,OpenAI 2万刀博士级AI智能体平替!自主研究媲美顶会论文

AI-Researcher是一个开源的科研智能体框架,它能从文献搜集一路包办至论文撰写,彻底改变了科研方式,让科研自动化触手可及。

来自主题: AI技术研报
6327 点击    2025-03-16 15:46
声音比真人还像真人的Maya,背后模型开源了!跨越语音恐怖谷

声音比真人还像真人的Maya,背后模型开源了!跨越语音恐怖谷

声音比真人还像真人的Maya,背后模型开源了!跨越语音恐怖谷

语音恐怖谷是指在语音合成技术中,当 AI 合成语音接近人类的真实语音,但又存在细微的不自然或不完美之处时,会引发人类的不适感。

来自主题: AI技术研报
7993 点击    2025-03-16 15:29
驯服AI,更懂物理!何恺明团队提出全新DHN「去噪哈密顿网络」

驯服AI,更懂物理!何恺明团队提出全新DHN「去噪哈密顿网络」

驯服AI,更懂物理!何恺明团队提出全新DHN「去噪哈密顿网络」

何恺明团队提出的去噪哈密顿网络(DHN),将哈密顿力学融入神经网络,突破传统局部时间步限制,还有独特去噪机制,在物理推理任务中表现卓越。

来自主题: AI技术研报
6695 点击    2025-03-16 15:22
AI进入推理模型时代,一文带你读懂思维链

AI进入推理模型时代,一文带你读懂思维链

AI进入推理模型时代,一文带你读懂思维链

近段时间,推理模型 DeepSeek R1 可说是 AI 领域的头号话题。用过的都知道,该模型在输出最终回答之前,会先输出一段思维链内容。这样做可以提升最终答案的准确性。

来自主题: AI技术研报
7948 点击    2025-03-16 14:53
无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

LLM自身有望在无限长token下检索信息!无需训练,在检索任务「大海捞针」(Needle-in-a-Haystack)测试中,新方法InfiniRetri让有效上下文token长度从32K扩展至1000+K,让7B模型比肩72B模型。

来自主题: AI技术研报
8170 点击    2025-03-16 13:28
AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?

AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?

AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?

大语言模型(LLM)近年来凭借训练时扩展(train-time scaling)取得了显著性能提升。然而,随着模型规模和数据量的瓶颈显现,测试时扩展(test-time scaling)成为进一步释放潜力的新方向。

来自主题: AI技术研报
6239 点击    2025-03-16 12:42
人类秒懂,AI却懵圈:VLM²-Bench揭示视觉语言模型「视觉关联」能力短板

人类秒懂,AI却懵圈:VLM²-Bench揭示视觉语言模型「视觉关联」能力短板

人类秒懂,AI却懵圈:VLM²-Bench揭示视觉语言模型「视觉关联」能力短板

当前,视觉语言模型(VLMs)的能力边界不断被突破,但大多数评测基准仍聚焦于复杂知识推理或专业场景。本文提出全新视角:如果一项能力对人类而言是 “无需思考” 的本能,但对 AI 却是巨大挑战,它是否才是 VLMs 亟待突破的核心瓶颈?

来自主题: AI技术研报
5879 点击    2025-03-15 15:05