AI资讯新闻榜单内容搜索-Token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Token
刷新世界记录!40B模型+20万亿token,散户组团挑战算力霸权

刷新世界记录!40B模型+20万亿token,散户组团挑战算力霸权

刷新世界记录!40B模型+20万亿token,散户组团挑战算力霸权

全球网友用闲置显卡组团训练大模型。40B大模型、20万亿token,创下了互联网上最大规模的预训练新纪录!去中心化AI的反攻,正式开始。OpenAI等巨头的算力霸权,这次真要凉了?

来自主题: AI资讯
4857 点击    2025-05-26 14:42
19岁少年「破解」谷歌新AI?每秒1479 token,扩散再战GPT!

19岁少年「破解」谷歌新AI?每秒1479 token,扩散再战GPT!

19岁少年「破解」谷歌新AI?每秒1479 token,扩散再战GPT!

年仅19岁少年,自称破解了谷歌最快的语言模型Gemini Diffusion,引爆社交平台。真相扑朔迷离,但有一点毫无疑问:谷歌I/O大会的「黑马」,比GPT快10倍的速度、媲美人类程序员的代码能力,正在掀起一场NLP范式大洗牌。

来自主题: AI资讯
7804 点击    2025-05-24 19:28
英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达,亲手打破了自己的天花板!刚刚,Blackwell单用户每秒突破了1000个token,在Llama 4 Maverick模型上,再次创下了AI推理的世界纪录。在官博中,团队放出了不少绝密武器。

来自主题: AI资讯
9011 点击    2025-05-23 15:58
ICML 2025|如何凭「自动补全」实现100K生成3×加速?

ICML 2025|如何凭「自动补全」实现100K生成3×加速?

ICML 2025|如何凭「自动补全」实现100K生成3×加速?

在当前大模型推理愈发复杂的时代,如何快速、高效地产生超长文本,成为了模型部署与优化中的一大核心挑战。

来自主题: AI技术研报
7427 点击    2025-05-18 14:38
图像分词器造反了!华为 Selftok:自回归内核完美统一扩散模型,触发像素自主推理

图像分词器造反了!华为 Selftok:自回归内核完美统一扩散模型,触发像素自主推理

图像分词器造反了!华为 Selftok:自回归内核完美统一扩散模型,触发像素自主推理

自回归(AR)范式凭借将语言转化为离散 token 的核心技术,在大语言模型领域大获成功 —— 从 GPT-3 到 GPT-4o,「next-token prediction」以简单粗暴的因果建模横扫语言领域。

来自主题: AI技术研报
7308 点击    2025-05-18 14:28
讨厌RAG生成幻觉?试一下SAT重构文本分块,按语义而不是Token

讨厌RAG生成幻觉?试一下SAT重构文本分块,按语义而不是Token

讨厌RAG生成幻觉?试一下SAT重构文本分块,按语义而不是Token

搞RAG开发,一个被普遍忽视却又至关重要的痛点是:如何避免Token分块带来的语义割裂问题。SAT模型通过神经网络驱动的智能分段技术,巧妙解决了这一难题。它不是RAG的替代,而是RAG的强力前置增强层,通过确保每个文本块的语义完整性,显著降低下游生成的幻觉风险。

来自主题: AI技术研报
7162 点击    2025-05-15 12:02
ICML 2025 | 如何在合成文本数据时避免模型崩溃?

ICML 2025 | 如何在合成文本数据时避免模型崩溃?

ICML 2025 | 如何在合成文本数据时避免模型崩溃?

随着生成式人工智能技术的飞速发展,合成数据正日益成为大模型训练的重要组成部分。未来的 GPT 系列语言模型不可避免地将依赖于由人工数据和合成数据混合构成的大规模语料。

来自主题: AI技术研报
7315 点击    2025-05-14 14:04
Agent 产品如何定价?一文说清 AI 产品的四种付费模式

Agent 产品如何定价?一文说清 AI 产品的四种付费模式

Agent 产品如何定价?一文说清 AI 产品的四种付费模式

AI 产品的付费模式,尤其是 Agent 产品,传统的付费模式已经不再适用了,不管是 token 量还是席位模式。

来自主题: AI资讯
7011 点击    2025-05-13 09:33
ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

ICML 2025 | 长视频理解新SOTA!蚂蚁&人大开源ViLAMP-7B,单卡可处理3小时视频

在视觉语言模型(Vision-Language Models,VLMs)取得突破性进展的当下,长视频理解的挑战显得愈发重要。以标准 24 帧率的标清视频为例,仅需数分钟即可产生逾百万的视觉 token,这已远超主流大语言模型 4K-128K 的上下文处理极限。

来自主题: AI技术研报
5036 点击    2025-05-13 08:54