AI资讯新闻榜单内容搜索-7

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 7
为MoE解绑:全新「专家即服务」推理架构发布,超细粒度扩展锐减37.5%成本

为MoE解绑:全新「专家即服务」推理架构发布,超细粒度扩展锐减37.5%成本

为MoE解绑:全新「专家即服务」推理架构发布,超细粒度扩展锐减37.5%成本

近年来,大型语言模型的参数规模屡创新高,随之而来的推理开销也呈指数级增长。如何降低超大模型的推理成本,成为业界关注的焦点之一。Mixture-of-Experts (MoE,混合专家) 架构通过引入大量 “专家” 子模型,让每个输入仅激活少数专家,从而在参数规模激增的同时避免推理计算量同比增长。

来自主题: AI技术研报
7854 点击    2025-10-13 15:49
濒死3次,医生判他死刑!宾大教授奇迹自救,誓用AI攻克14000种绝症

濒死3次,医生判他死刑!宾大教授奇迹自救,誓用AI攻克14000种绝症

濒死3次,医生判他死刑!宾大教授奇迹自救,誓用AI攻克14000种绝症

David Fajgenbaum,这位多次被命运击倒却又以勇气与智慧改写人生的医生,用科学、信念与不屈,将自己的奇迹求生化为拯救他人的毕生使命。他创立的Every Cure,借助AI在7500万种药物与疾病的可能组合中挖掘生命曙光,让无数罕见病与绝症患者重燃希望。

来自主题: AI资讯
8884 点击    2025-10-13 11:53
永别了,人类冠军!AI横扫天文奥赛,GPT-5得分远超金牌选手2.7倍

永别了,人类冠军!AI横扫天文奥赛,GPT-5得分远超金牌选手2.7倍

永别了,人类冠军!AI横扫天文奥赛,GPT-5得分远超金牌选手2.7倍

国际奥赛又一块金牌,被AI夺下了!在国际天文与天体物理奥赛(IOAA)中,GPT-5和Gemini 2.5 Pro完胜人类选手,在理论和数据分析测试中,拿下了最高分。在理论考试上,Gemini 2.5 Pro总体得分85.6%,GPT-5总体得分84.2%;

来自主题: AI资讯
8605 点击    2025-10-12 15:04
清华万引教授:万倍加速催化剂设计,AI突破DFT瓶颈!

清华万引教授:万倍加速催化剂设计,AI突破DFT瓶颈!

清华万引教授:万倍加速催化剂设计,AI突破DFT瓶颈!

传统DFT计算太慢?SurFF来了!这个基础模型通过晶面生成、快速弛豫和Wulff构型,精准评估晶面可合成性与暴露度。SurFF相较于DFT实现了10⁵倍的加速,多源实验与文献验证一致率达73.1%。

来自主题: AI技术研报
7032 点击    2025-10-12 10:43
OpenAI算力账单曝光:70亿美元支出,大部分钱花在了“看不见的实验”

OpenAI算力账单曝光:70亿美元支出,大部分钱花在了“看不见的实验”

OpenAI算力账单曝光:70亿美元支出,大部分钱花在了“看不见的实验”

来扒一扒OpenAI算力支出的天价账单——据Epoch AI统计的数据显示,去年OpenAI在计算资源上支出了70亿美元。由于公司当时还没有大量的算力,所以这笔天价账单基本都是以向微软租用云算力的形式支付出去的,并不包括对数据中心的前期投入。

来自主题: AI资讯
9866 点击    2025-10-11 17:12
开源编程模型王座易主了,谁能想到新SOTA是快手

开源编程模型王座易主了,谁能想到新SOTA是快手

开源编程模型王座易主了,谁能想到新SOTA是快手

开源编程模型王座,再度易主!来自快手的KAT-Dev-72B-Exp,在SWE-Bench认证榜单以74.6%的成绩夺得开源模型第一。KAT-Dev-72B-Exp是KAT-Coder模型的实验性强化学习版本。

来自主题: AI资讯
10809 点击    2025-10-11 15:57
77岁「AI教父」Hinton:AI早有意识!我们打造的智能,可能终结人类文明

77岁「AI教父」Hinton:AI早有意识!我们打造的智能,可能终结人类文明

77岁「AI教父」Hinton:AI早有意识!我们打造的智能,可能终结人类文明

「AI教父」Hinton毕生致力于让机器像大脑般学习,如今却恐惧其后果:AI不朽的身体、超凡的说服力,可能让它假装愚笨以求生存。人类对「心智」的自大误解,预示着即将到来的智能革命。

来自主题: AI资讯
8427 点击    2025-10-11 15:55
刚刚,全球首个GB300巨兽救场!一年烧光70亿,OpenAI内斗GPU惨烈

刚刚,全球首个GB300巨兽救场!一年烧光70亿,OpenAI内斗GPU惨烈

刚刚,全球首个GB300巨兽救场!一年烧光70亿,OpenAI内斗GPU惨烈

为了争夺有限的GPU,OpenAI内部一度打得不可开交。2024年总算力投入70亿美元,但算力需求依旧是无底洞。恰恰,微软发布了全球首台GB300超算,专供OpenAI让万亿LLM数天训完。

来自主题: AI资讯
8520 点击    2025-10-11 10:42
谷歌月Tokens消耗量领跑全球了:1300000000000000(别数了是千万亿)

谷歌月Tokens消耗量领跑全球了:1300000000000000(别数了是千万亿)

谷歌月Tokens消耗量领跑全球了:1300000000000000(别数了是千万亿)

1.3千万亿,一个令人咂舌的数字。这就是谷歌每月处理的Tokens用量。据谷歌“宣传委员”Logan Kilpatrick透露,这一数据来自谷歌对旗下各平台的内部统计。那么在中文世界里,1.3千万亿Tokens约2.17千万亿汉字。换算成对话量,一本《红楼梦》的字数在70-80万左右,相当于一个月内所有人和谷歌AI聊了近30亿本《红楼梦》的内容。

来自主题: AI资讯
8292 点击    2025-10-10 23:21
700万参数击败DeepSeek R1等,三星一人独作爆火,用递归颠覆大模型推理

700万参数击败DeepSeek R1等,三星一人独作爆火,用递归颠覆大模型推理

700万参数击败DeepSeek R1等,三星一人独作爆火,用递归颠覆大模型推理

来自加拿大蒙特利尔三星先进技术研究所(SAIT)的高级 AI 研究员 Alexia Jolicoeur-Martineau 介绍了微型递归模型(TRM)。这个 TRM 有多离谱呢?一个仅包含 700 万个参数(比 HRM 还要小 4 倍)的网络,在某些最困难的推理基准测试中,

来自主题: AI技术研报
8110 点击    2025-10-10 13:08