AI资讯新闻榜单内容搜索-Token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Token
英伟达开源发布最新AI模型!引入突破性专家混合架构,推理性能超越Qwen3和GPT,百万token上下文,模型数据集全开源!

英伟达开源发布最新AI模型!引入突破性专家混合架构,推理性能超越Qwen3和GPT,百万token上下文,模型数据集全开源!

英伟达开源发布最新AI模型!引入突破性专家混合架构,推理性能超越Qwen3和GPT,百万token上下文,模型数据集全开源!

就在刚刚,英伟达正式开源发布了其新一代AI模型:NVIDIA Nemotron 3。Nemotron 3 系列由三种型号组成:Nano、Super 和 Ultra。官方介绍其具备强大的智能体、推理和对话能力。

来自主题: AI技术研报
8357 点击    2025-12-16 17:21
为Token付费是一件很愚蠢的事情,用户应该为智能付费丨RockAI刘凡平@MEET2026

为Token付费是一件很愚蠢的事情,用户应该为智能付费丨RockAI刘凡平@MEET2026

为Token付费是一件很愚蠢的事情,用户应该为智能付费丨RockAI刘凡平@MEET2026

“人工智能要发展到下一个台阶,一定要突破两座大山。第一座大山是Transformer,第二座大山是反向传播算法。”在大模型规模不断拔高、算力与数据卷到极致的当下,RockAI创始人刘凡平提出了一个与主流共识截然不同的判断。

来自主题: AI资讯
7724 点击    2025-12-14 10:47
GPT-5.2被曝作弊!偷袭谷歌竟靠拉爆token刷高分,不如Gemini 3

GPT-5.2被曝作弊!偷袭谷歌竟靠拉爆token刷高分,不如Gemini 3

GPT-5.2被曝作弊!偷袭谷歌竟靠拉爆token刷高分,不如Gemini 3

GPT-5.2打赢Gemini 3.0 Pro,竟是靠高推理与海量Token「作弊」?网友的这个发现,在AI社区一石激起千层浪。更多网友七嘴八舌表示:GPT-5.2,并没有那么好用!

来自主题: AI资讯
8548 点击    2025-12-13 15:52
a16z 提出 AI 产品的「水晶鞋效应」:第一批用户反而是最忠诚的

a16z 提出 AI 产品的「水晶鞋效应」:第一批用户反而是最忠诚的

a16z 提出 AI 产品的「水晶鞋效应」:第一批用户反而是最忠诚的

前几天,AI 推理服务供应商 OpenRouter 发布了一份报告《State of AI》,基于平台上 60 多家提供商的 300 多个模型,100 万亿个 token 的交互数据,对 LLM 的实际应用情况进行了分析。报告中,提到了一个「灰姑娘水晶鞋效应」,特别有意思。研究者在分析用户留用数据时发现一个现象:AI 模型发布第一个月进来的用户,往往比后来进来的用户留存率更高。

来自主题: AI技术研报
7093 点击    2025-12-12 16:15
100 万亿 Token 揭秘全球用户怎么用 AI:一半算力用在「不可描述」的地方

100 万亿 Token 揭秘全球用户怎么用 AI:一半算力用在「不可描述」的地方

100 万亿 Token 揭秘全球用户怎么用 AI:一半算力用在「不可描述」的地方

AI 领域迄今最大规模的用户行为实录,刚刚发布了。这是全球模型聚合平台 OpenRouter 联合硅谷顶级风投 a16z 发布的一份报告,基于全球 100 万亿次真实 API 调用、覆盖 300+款 AI 模型、60+家供应商、超过 50% 非美国用户 。

来自主题: AI技术研报
8475 点击    2025-12-08 22:18
谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

两项关于大模型新架构的研究一口气在NeurIPS 2025上发布,通过“测试时训练”机制,能在推理阶段将上下文窗口扩展至200万token。两项新成果分别是:Titans:兼具RNN速度和Transformer性能的全新架构;MIRAS:Titans背后的核心理论框架。

来自主题: AI技术研报
6920 点击    2025-12-06 11:10
基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

一直以来,传统 MAS 依赖自然语言沟通,各个 LLM 之间用文本交流思路。这种方法虽然可解释,但冗长、低效、信息易丢失。LatentMAS 则让智能体直接交换内部的隐藏层表示与 KV-cache 工作记忆,做到了:

来自主题: AI技术研报
6996 点击    2025-12-06 11:08
人们用AI在做什么?答案藏在100万亿token背后

人们用AI在做什么?答案藏在100万亿token背后

人们用AI在做什么?答案藏在100万亿token背后

2025 年 12 月,硅谷风险投资机构 Andreessen Horowitz(简称 a16z)与 AI 推理服务平台 OpenRouter 联合发布了一份名为《State of AI》的研究报告。这份报告基于 OpenRouter 平台上超过 100 万亿 token 的真实用户交互数据,试图呈现过去一年间大语言模型在实际应用中的真实状态。

来自主题: AI技术研报
8306 点击    2025-12-06 10:22
Anthropic官宣PTC突破,中国开发者一年前就实现了

Anthropic官宣PTC突破,中国开发者一年前就实现了

Anthropic官宣PTC突破,中国开发者一年前就实现了

Anthropic发布了Programmatic Tool Calling(PTC)特性,让Claude通过代码编排工具执行,降低token消耗、减少延迟并提升准确性。

来自主题: AI技术研报
7628 点击    2025-12-05 14:48