AI资讯新闻榜单内容搜索-TEN

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: TEN
多模态幻觉的病因「高熵节点」找到了!全基准幻觉率下降

多模态幻觉的病因「高熵节点」找到了!全基准幻觉率下降

多模态幻觉的病因「高熵节点」找到了!全基准幻觉率下降

多模态大推理模型的幻觉,很多时候并非「没看见」,而是在最不确定的推理阶段想偏了。最新研究发现,模型在生成because、however、wait等transition words时,往往处于高熵关键节点,更容易脱离图像证据、转向语言脑补。LEAD在高熵阶段不急于输出单一离散token,而是先在潜在语义空间保留多种候选推理方向,并通过视觉锚点持续拉回图像证据,显著缓解幻觉。

来自主题: AI技术研报
9245 点击    2026-04-11 09:37
速递|毛利超30%,50万用户撑起月入800万美元,Wrtn正在抢占AI角色扮演市场

速递|毛利超30%,50万用户撑起月入800万美元,Wrtn正在抢占AI角色扮演市场

速递|毛利超30%,50万用户撑起月入800万美元,Wrtn正在抢占AI角色扮演市场

总部位于首尔的 Wrtn Technologies 表示,该公司通过为韩国和日本的硬核动漫和游戏粉丝运营 AI 故事讲述应用,每月产生超过 800 万美元的收入。Wrtn(发音为"written")即将以一款名为 OOC("out of character"的缩写)的类似应用扩展到美国市场,这是龙与地下城角色扮演游戏中的常用术语。

来自主题: AI资讯
8041 点击    2026-04-09 09:51
北大团队改造DeepSeek注意力,速度快四倍还不丢精度

北大团队改造DeepSeek注意力,速度快四倍还不丢精度

北大团队改造DeepSeek注意力,速度快四倍还不丢精度

就在大家都急头白脸地等待DeepSeek-V4的时候,冷不丁一篇新论文引起了网友们的注意—— 提出新稀疏注意力机制HISA(分层索引稀疏注意力),突破64K上下文的索引瓶颈,相比DeepSeek正在用的DSA(DeepSeek Sparse Attention)提速2-4倍。

来自主题: AI技术研报
7304 点击    2026-04-07 10:30
独家|4个月从0到300+客户,Mizzen Insight完成近千万美元天使轮+融资

独家|4个月从0到300+客户,Mizzen Insight完成近千万美元天使轮+融资

独家|4个月从0到300+客户,Mizzen Insight完成近千万美元天使轮+融资

据 Z Potentials 获悉,AI用户研究平台 Mizzen Insight 已完成天使+轮融资,融资金额近千万美元,由红杉中国种子基金领投,达晨创投、嘉程资本跟投。本轮融资将主要用于模型能力优化、产品迭代及市场拓展。

来自主题: AI资讯
8292 点击    2026-04-03 12:38
全球 AI 公司烧了几千亿,最后都得抢着给苹果「打工」

全球 AI 公司烧了几千亿,最后都得抢着给苹果「打工」

全球 AI 公司烧了几千亿,最后都得抢着给苹果「打工」

就在刚刚,据彭博社报道,iOS 27 将引入一套名为「Extensions」的新机制,允许用户通过设置面板,把 Google Gemini、Anthropic Claude 等第三方 AI 接入 Siri,就像现在调用 ChatGPT 一样直接从 Siri 发起请求。

来自主题: AI资讯
8356 点击    2026-03-27 14:22
"将注意力旋转90°":深入浅出解读 Kimi 最新出圈成果

"将注意力旋转90°":深入浅出解读 Kimi 最新出圈成果

"将注意力旋转90°":深入浅出解读 Kimi 最新出圈成果

前几天,一篇来自Kimi的论文「ATTENTION RESIDUALS」在 AI 圈引发了激烈讨论——马斯克罕见地发出评价:"Impressive work from Kimi"。同时,两位前Openai大佬也同样发出了高度评价,OpenAI 「推理模型之父」Jerry Tworek表示“深度学习2.0时代即将到来”。

来自主题: AI技术研报
8657 点击    2026-03-27 14:16
Sand.ai重磅更新MagiAttention,正在定义分布式Attention性能新标杆

Sand.ai重磅更新MagiAttention,正在定义分布式Attention性能新标杆

Sand.ai重磅更新MagiAttention,正在定义分布式Attention性能新标杆

2025 年 4 月,Sand.ai 开源了 MagiAttention v1.0.0,定义了下一代分布式 Attention 的全新设计和系统框架。历经一年的深耕,今天 Sand.ai 正式发布:MagiAttention v1.1.0,以更成熟的原生算子组件,重新定义 Hopper 与 Blackwell 两代架构分布式 Attention 的性能上限。

来自主题: AI技术研报
6393 点击    2026-03-24 16:31
笑不活了,“日本最高性能AI模型”,是DeepSeek V3改了个名?

笑不活了,“日本最高性能AI模型”,是DeepSeek V3改了个名?

笑不活了,“日本最高性能AI模型”,是DeepSeek V3改了个名?

3月17日,楽天(乐天)集团正式发布了Rakuten AI 3.0模型,号称是“日本国内最大规模的高性能AI模型”。官方宣传的参数量为约7000亿,并且日语特化,Apache 2.0开源许可,还拿了日本经产省和NEDO的GENIAC项目补助。

来自主题: AI资讯
8586 点击    2026-03-17 23:46
全新线性注意力范式!哈工深张正团队提出模长感知线性注意力!显存直降92.3%!

全新线性注意力范式!哈工深张正团队提出模长感知线性注意力!显存直降92.3%!

全新线性注意力范式!哈工深张正团队提出模长感知线性注意力!显存直降92.3%!

当 Transformer 席卷计算机视觉领域,高分辨率图像、超长序列任务带来的算力与显存瓶颈愈发凸显:标准 Softmax 注意力的二次复杂度,让 70K+token 的超分辨率任务直接显存爆炸,高分辨率图像分割、检测的推理延迟居高不下。

来自主题: AI技术研报
5630 点击    2026-03-17 08:48