AI资讯新闻榜单内容搜索-Token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Token
英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达,亲手打破了自己的天花板!刚刚,Blackwell单用户每秒突破了1000个token,在Llama 4 Maverick模型上,再次创下了AI推理的世界纪录。在官博中,团队放出了不少绝密武器。

来自主题: AI资讯
8839 点击    2025-05-23 15:58
ICML 2025|如何凭「自动补全」实现100K生成3×加速?

ICML 2025|如何凭「自动补全」实现100K生成3×加速?

ICML 2025|如何凭「自动补全」实现100K生成3×加速?

在当前大模型推理愈发复杂的时代,如何快速、高效地产生超长文本,成为了模型部署与优化中的一大核心挑战。

来自主题: AI技术研报
7248 点击    2025-05-18 14:38
图像分词器造反了!华为 Selftok:自回归内核完美统一扩散模型,触发像素自主推理

图像分词器造反了!华为 Selftok:自回归内核完美统一扩散模型,触发像素自主推理

图像分词器造反了!华为 Selftok:自回归内核完美统一扩散模型,触发像素自主推理

自回归(AR)范式凭借将语言转化为离散 token 的核心技术,在大语言模型领域大获成功 —— 从 GPT-3 到 GPT-4o,「next-token prediction」以简单粗暴的因果建模横扫语言领域。

来自主题: AI技术研报
7056 点击    2025-05-18 14:28
讨厌RAG生成幻觉?试一下SAT重构文本分块,按语义而不是Token

讨厌RAG生成幻觉?试一下SAT重构文本分块,按语义而不是Token

讨厌RAG生成幻觉?试一下SAT重构文本分块,按语义而不是Token

搞RAG开发,一个被普遍忽视却又至关重要的痛点是:如何避免Token分块带来的语义割裂问题。SAT模型通过神经网络驱动的智能分段技术,巧妙解决了这一难题。它不是RAG的替代,而是RAG的强力前置增强层,通过确保每个文本块的语义完整性,显著降低下游生成的幻觉风险。

来自主题: AI技术研报
6972 点击    2025-05-15 12:02
ICML 2025 | 如何在合成文本数据时避免模型崩溃?

ICML 2025 | 如何在合成文本数据时避免模型崩溃?

ICML 2025 | 如何在合成文本数据时避免模型崩溃?

随着生成式人工智能技术的飞速发展,合成数据正日益成为大模型训练的重要组成部分。未来的 GPT 系列语言模型不可避免地将依赖于由人工数据和合成数据混合构成的大规模语料。

来自主题: AI技术研报
7147 点击    2025-05-14 14:04
Agent 产品如何定价?一文说清 AI 产品的四种付费模式

Agent 产品如何定价?一文说清 AI 产品的四种付费模式

Agent 产品如何定价?一文说清 AI 产品的四种付费模式

AI 产品的付费模式,尤其是 Agent 产品,传统的付费模式已经不再适用了,不管是 token 量还是席位模式。

来自主题: AI资讯
6829 点击    2025-05-13 09:33
ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

在视觉语言模型(Vision-Language Models,VLMs)取得突破性进展的当下,长视频理解的挑战显得愈发重要。以标准 24 帧率的标清视频为例,仅需数分钟即可产生逾百万的视觉 token,这已远超主流大语言模型 4K-128K 的上下文处理极限。

来自主题: AI技术研报
4742 点击    2025-05-13 08:54
一个「always」站在大模型技术C位的传奇男子

一个「always」站在大模型技术C位的传奇男子

一个「always」站在大模型技术C位的传奇男子

怎么老是你???(How old are you)尤其是最近Meta FAIR研究员朱泽园分享了他们《Physics of Language Models》项目的系列新进展后,有网友发现,其中提到的3-token因果卷积相关内容,沙哥等又早在三年前就有相关研究。这是最近网友不断对着Transformer八子之一的Noam Shazeer(为方便阅读,我们称他为沙哥)发出的灵魂疑问。

来自主题: AI资讯
8932 点击    2025-05-11 15:02
ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。然而,MoE 虽然显著降低了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。

来自主题: AI技术研报
5830 点击    2025-05-07 09:30