AI资讯新闻榜单内容搜索-微软

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微软
又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

又快又省?仅5%参数、训练快4倍!ArcFlow用「非线性」魔法实现FLUX/Qwen推理40倍加速

复旦大学与微软亚洲研究院带来的 ArcFlow 给出了答案:如果路是弯的,那就学会 “漂移”,而不是把路修直。在扩散模型中,教师模型(Pre-trained Teacher)的生成过程本质上是在高维空间中求解微分方程并进行多步积分。由于图像流形的复杂性,教师模型原本的采样轨迹通常是一条蜿蜒的曲线,其切线方向(即速度场)随时间步不断变化。

来自主题: AI技术研报
7985 点击    2026-02-25 14:15
让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

让AI智能体「记住」失败经验:微软提出Re-TRAC框架,4B性能SOTA,30B超越358B

来自东南大学、微软亚洲研究院等机构的研究团队提出了一种全新的解决方案——Re-TRAC(REcursive TRAjectory Compression),这个框架让 AI 智能体能够「记住」每次探索的经验,在多个探索轨迹之间传递经验,实现渐进式的智能搜索。

来自主题: AI技术研报
9495 点击    2026-02-25 10:35
忍无可忍,Ilya宫斗奥特曼!微软CTO爆内幕:全因嫉妒下属太优秀?

忍无可忍,Ilya宫斗奥特曼!微软CTO爆内幕:全因嫉妒下属太优秀?

忍无可忍,Ilya宫斗奥特曼!微软CTO爆内幕:全因嫉妒下属太优秀?

硅谷最离谱宫斗:Ilya因嫉妒Jakub的「震撼突破」而点燃OpenAI火药桶,奥特曼被董事会踢出,引发高管离职潮。算力不足和预算挤压是根源,2026年文件曝光后,Ilya「塌房」。

来自主题: AI资讯
9778 点击    2026-02-22 11:12
一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

一个模型统一所有离线任务!微软用671B大模型重构广告推荐「推理大脑」

近日,微软Bing Ads与DKI团队发表论文《AdNanny: One Reasoning LLM for All Offline Ads Recommendation Tasks》,宣布基于DeepSeek-R1 671B打造了统一的离线推理中枢AdNanny,用单一模型承载所有离线任务。这标志着从维护一系列任务特定模型,转向部署一个统一的、推理中心化的基础模型,从

来自主题: AI技术研报
9078 点击    2026-02-18 13:29
登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

来自上海交通大学、清华大学、微软研究院、麻省理工学院(MIT)、上海 AI Lab、小红书、阿里巴巴、港科大(广州)等机构的研究团队,系统梳理了近年来大语言模型在数据准备流程中的角色变化,试图回答一个业界关心的问题:LLM 能否成为下一代数据管道的「智能语义中枢」,彻底重构数据准备的范式?

来自主题: AI技术研报
8482 点击    2026-02-09 11:12
速递|初创公司Arcee AI低成本六个月训练,发布4000亿参数开源大模型Trinity

速递|初创公司Arcee AI低成本六个月训练,发布4000亿参数开源大模型Trinity

速递|初创公司Arcee AI低成本六个月训练,发布4000亿参数开源大模型Trinity

行业内许多人认为AI 模型市场的赢家早已确定:大型科技公司将主导市场(谷歌、Meta、微软,以及部分亚马逊业务)并联合其选择的模型开发商,主要是 OpenAI 和 Anthropic。

来自主题: AI资讯
9994 点击    2026-01-30 16:12
微软靠OpenAI,一季狂赚528亿

微软靠OpenAI,一季狂赚528亿

微软靠OpenAI,一季狂赚528亿

OpenAI成巨头60%净利增长背后的AI印钞机?

来自主题: AI资讯
7885 点击    2026-01-29 15:27