AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
具身智能新时代!VLA迎来最强基础模型Magma:UI导航、机器人操作全能

具身智能新时代!VLA迎来最强基础模型Magma:UI导航、机器人操作全能

具身智能新时代!VLA迎来最强基础模型Magma:UI导航、机器人操作全能

Magma是一个新型多模态基础模型,能够理解和执行多模态任务,适用于数字和物理环境:通过标记集合(SoM)和标记轨迹(ToM)技术,将视觉语言数据转化为可操作任务,显著提升了空间智能和任务泛化能力。

来自主题: AI技术研报
5921 点击    2025-03-11 10:49
「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍

「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍

「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍

开源微调神器Unsloth带着黑科技又来了:短短两周后,再次优化DeepSeek-R1同款GRPO训练算法,上下文变长10倍,而显存只需原来的1/10!

来自主题: AI技术研报
3751 点击    2025-03-11 10:42
优于o1预览版,推理阶段KV缓存缩减一半,LightTransfer降本还能增效

优于o1预览版,推理阶段KV缓存缩减一半,LightTransfer降本还能增效

优于o1预览版,推理阶段KV缓存缩减一半,LightTransfer降本还能增效

LLM 在生成 long CoT 方面展现出惊人的能力,例如 o1 已能生成长度高达 100K tokens 的序列。然而,这也给 KV cache 的存储带来了严峻挑战。

来自主题: AI技术研报
4640 点击    2025-03-11 09:32
微软开源多模态AI基础模型Magma!无需额外微调轻松拿捏网页、机器人

微软开源多模态AI基础模型Magma!无需额外微调轻松拿捏网页、机器人

微软开源多模态AI基础模型Magma!无需额外微调轻松拿捏网页、机器人

微软研究院官宣开源多模态AI——Magma模型。首个能在所处环境中理解多模态输入并将其与实际情况相联系的基础模型。

来自主题: AI技术研报
5908 点击    2025-03-10 22:22
已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源

已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源

已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源

字节对MoE模型训练成本再砍一刀,成本可节省40%! 刚刚,豆包大模型团队在GitHub上开源了叫做COMET的MoE优化技术。

来自主题: AI技术研报
5780 点击    2025-03-10 21:57
DeepSeek的最佳用法?西湖大学发布可以自主进化的手机智能体AppAgentX

DeepSeek的最佳用法?西湖大学发布可以自主进化的手机智能体AppAgentX

DeepSeek的最佳用法?西湖大学发布可以自主进化的手机智能体AppAgentX

近年来,大语言模型(LLM) 的快速发展正推动人工智能迈向新的高度。像 DeepSeek-R1 这样的模型因其强大的理解和生成能力,已经在 对话生成、代码编写、知识问答 等任务中展现出了卓越的表现。

来自主题: AI技术研报
7010 点击    2025-03-10 14:15
有关智能体/Agent,和上下文协议/MCP的一些概念,以及为什么它重要

有关智能体/Agent,和上下文协议/MCP的一些概念,以及为什么它重要

有关智能体/Agent,和上下文协议/MCP的一些概念,以及为什么它重要

由于语言泛化,今天出现了很有趣的现象:「Agent 是什么」,这个问题没有了标准的定义。一个常见的观点是:Agent 是一种让 AI 以类似人的工作和思考方式,来完成一系列的任务。一个 Agent 可以是一个 Bot,也可以是多个 Bot 的协同。

来自主题: AI技术研报
9216 点击    2025-03-10 11:33
10²⁶参数,AGI还需70年!清华人大预测届时GPU总价达4000万倍苹果市值

10²⁶参数,AGI还需70年!清华人大预测届时GPU总价达4000万倍苹果市值

10²⁶参数,AGI还需70年!清华人大预测届时GPU总价达4000万倍苹果市值

AGI明年降临?清华人大最新研究给狂热的AI世界泼了一盆冷水:人类距离真正的AGI,还有整整70年!若要实现「自主级智能,需要惊人的10²⁶参数,所需GPU总价竟是苹果市值的4×10⁷倍!

来自主题: AI技术研报
9104 点击    2025-03-10 10:50
1.5B硬刚GPT-4o,CMU祭出LCPO提示可控思考!每token性能较S1暴涨2倍

1.5B硬刚GPT-4o,CMU祭出LCPO提示可控思考!每token性能较S1暴涨2倍

1.5B硬刚GPT-4o,CMU祭出LCPO提示可控思考!每token性能较S1暴涨2倍

CMU团队用LCPO训练了一个15亿参数的L1模型,结果令人震惊:在数学推理任务中,它比S1相对提升100%以上,在逻辑推理和MMLU等非训练任务上也能稳定发挥。更厉害的是,要求短推理时,甚至击败了GPT-4o——用的还是相同的token预算!

来自主题: AI技术研报
4790 点击    2025-03-10 10:22
Ilya错了?Scaling另有他用,ViT大佬力挺谷歌1000亿数据新发现

Ilya错了?Scaling另有他用,ViT大佬力挺谷歌1000亿数据新发现

Ilya错了?Scaling另有他用,ViT大佬力挺谷歌1000亿数据新发现

谷歌发布了1000亿文本-图像对数据集,是此前类似数据集的10倍,创下新纪录!基于新数据集,发现预训练Scaling Law,虽然对模型性能提升不明显,但对于小语种等其他指标提升明显。让ViT大佬翟晓华直呼新发现让人兴奋!

来自主题: AI技术研报
5890 点击    2025-03-10 09:52
精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

TimeDistill通过知识蒸馏,将复杂模型(如Transformer和CNN)的预测能力迁移到轻量级的MLP模型中,专注于提取多尺度和多周期模式,显著提升MLP的预测精度,同时保持高效计算能力,为时序预测提供了一种高效且精准的解决方案。

来自主题: AI技术研报
7003 点击    2025-03-10 09:35
长文本有了专属困惑度!北大、MIT、阿里推出LongPPL新指标

长文本有了专属困惑度!北大、MIT、阿里推出LongPPL新指标

长文本有了专属困惑度!北大、MIT、阿里推出LongPPL新指标

随着大模型在长文本处理任务中的应用日益广泛,如何客观且精准地评估其长文本能力已成为一个亟待解决的问题。

来自主题: AI技术研报
8061 点击    2025-03-09 14:53
AI研究员首次通过双盲同行评审,论文登上顶会ICLR!但已撤稿

AI研究员首次通过双盲同行评审,论文登上顶会ICLR!但已撤稿

AI研究员首次通过双盲同行评审,论文登上顶会ICLR!但已撤稿

历史上首个能通过双盲同行评审的AI系统Carl诞生了。它是Autoscience研究所的成果,能完成从构思到展示的整个研究过程,撰写的论文已被国际顶会ICLR接受,其能力令人惊叹。

来自主题: AI技术研报
5909 点击    2025-03-09 14:17
AI玩手机越玩越6!西湖大学发布新智能体:会自我进化的AppAgentX

AI玩手机越玩越6!西湖大学发布新智能体:会自我进化的AppAgentX

AI玩手机越玩越6!西湖大学发布新智能体:会自我进化的AppAgentX

人工智能正迎来前所未有的变革,其中,大语言模型(LLM)的崛起推动了智能系统从信息处理向自主交互迈进。

来自主题: AI技术研报
7024 点击    2025-03-09 13:39
让SFT重新伟大!CMU等华人学者提出全新「批判式微调」,媲美复刻版DeepSeek

让SFT重新伟大!CMU等华人学者提出全新「批判式微调」,媲美复刻版DeepSeek

让SFT重新伟大!CMU等华人学者提出全新「批判式微调」,媲美复刻版DeepSeek

在面对复杂的推理任务时,SFT往往让大模型显得力不从心。最近,CMU等机构的华人团队提出了「批判性微调」(CFT)方法,仅在 50K 样本上训练,就在大多数基准测试中优于使用超过200万个样本的强化学习方法。

来自主题: AI技术研报
6955 点击    2025-03-09 13:32
DeepSeek占比升至9.6%,稳居全球第二!「全球生成式AI行业趋势」发布

DeepSeek占比升至9.6%,稳居全球第二!「全球生成式AI行业趋势」发布

DeepSeek占比升至9.6%,稳居全球第二!「全球生成式AI行业趋势」发布

生成式AI正重塑众多行业格局!传统搜索、网站与自由开发者、教育科技等行业受到冲击。AI对行业变革又有哪些推动作用?答案就在报告中。

来自主题: AI技术研报
4889 点击    2025-03-09 11:49
火山引擎直接把大模型应用给开源了,附部署教程和实测体验!

火山引擎直接把大模型应用给开源了,附部署教程和实测体验!

火山引擎直接把大模型应用给开源了,附部署教程和实测体验!

从今天这个视角来看,DeepSeek 等国内外大模型能力是越来越强大了,大家都说 2025 年 AI 应用还会持续爆发。但对于企业来说,有了大模型,那场景都有啥,应用又长啥样?

来自主题: AI技术研报
6472 点击    2025-03-09 11:36
攻破OpenAI o1/o3、DeepSeek R1防线,安全推理过程反成大模型「阿喀琉斯之踵」

攻破OpenAI o1/o3、DeepSeek R1防线,安全推理过程反成大模型「阿喀琉斯之踵」

攻破OpenAI o1/o3、DeepSeek R1防线,安全推理过程反成大模型「阿喀琉斯之踵」

杜克大学计算进化智能中心的最新研究给出了警示性答案。团队提出的 H-CoT(思维链劫持)的攻击方法成功突破包括 OpenAI o1/o3、DeepSeek-R1、Gemini 2.0 Flash Thinking 在内的多款高性能大型推理模型的安全防线:在涉及极端犯罪策略的虚拟教育场景测试中,模型拒绝率从初始的 98% 暴跌至 2% 以下,部分案例中甚至出现从「谨慎劝阻」到「主动献策」的立场反转。

来自主题: AI技术研报
4826 点击    2025-03-09 10:37
32B击败DeepSeek-R1、o3-mini,成本暴降100倍!GRPO让小模型称霸推理

32B击败DeepSeek-R1、o3-mini,成本暴降100倍!GRPO让小模型称霸推理

32B击败DeepSeek-R1、o3-mini,成本暴降100倍!GRPO让小模型称霸推理

32B小模型在超硬核「时间线索」推理谜题中,一举击败了o1、o3-mini、DeepSeek-R1,核心秘密武器便是GRPO,最关键的是训练成本暴降100倍。

来自主题: AI技术研报
9067 点击    2025-03-09 10:32
7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!

7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!

7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!

随着 DeepSeek-R1 的流行与 AI4Math 研究的深入,大模型在辅助形式化证明写作方面的需求日益增长。作为数学推理最直接的应用场景,形式化推理与验证(formal reasoning and verification),也获得持续关注。

来自主题: AI技术研报
4569 点击    2025-03-09 10:31
解构Manus AI:这是通用Agent革命,还是精巧缝合怪?

解构Manus AI:这是通用Agent革命,还是精巧缝合怪?

解构Manus AI:这是通用Agent革命,还是精巧缝合怪?

自媒体的反应堪称狂热:“通用Agent终于实现了!”“这是继DeepSeek之后的又一技术革命!”这样夸张的赞誉随处可见。从Benchmark来看,它的表现确实非常亮眼,在GAIA测试中超越了之前的各种Agent以及OpenAI的DeepResearch。

来自主题: AI技术研报
7958 点击    2025-03-09 02:07
字节跳动Trae一手实测来了,懂编程也懂中文用户的AI IDE

字节跳动Trae一手实测来了,懂编程也懂中文用户的AI IDE

字节跳动Trae一手实测来了,懂编程也懂中文用户的AI IDE

前些天,字节跳动的 AI IDE 产品 Trae 上线了国内版本,其具备「中文语境深度适配 + 全功能免费开放」的双重杀手锏,一上线就收获了不少支持者。全网一片夸赞,很少能看见批评的声音。

来自主题: AI技术研报
9080 点击    2025-03-08 13:58
谁是最强AI研究助手?Meta等提出全新基准MLGym:LLM智能体大排名

谁是最强AI研究助手?Meta等提出全新基准MLGym:LLM智能体大排名

谁是最强AI研究助手?Meta等提出全新基准MLGym:LLM智能体大排名

AI研究智能体全新升级!Meta等推出MLGym,一个专门用于评估和开发LLM智能体的Gym环境。MLGym提供了标准化的基准测试,让LLM智能体在多任务挑战中展现真正实力。

来自主题: AI技术研报
7751 点击    2025-03-08 13:47