AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Transforme
RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

近期,RAE(Diffusion Transformers with Representation Autoencoders)提出以「 冻结的预训练视觉表征」直接作为潜空间,以显著提升扩散模型的生成性能。

来自主题: AI技术研报
10438 点击    2025-11-14 10:21
谷歌192亿买他回来,现在只想让他闭嘴

谷歌192亿买他回来,现在只想让他闭嘴

谷歌192亿买他回来,现在只想让他闭嘴

谷歌花27亿美元(约192亿人民币)挖来的Transformer“贡献最大”作者Noam Shazzer,现在点燃了火药桶。

来自主题: AI资讯
9175 点击    2025-11-12 10:23
终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

大模型「灾难性遗忘」问题或将迎来突破。近日,NeurIPS 2025收录了谷歌研究院的一篇论文,其中提出一种全新的「嵌套学习(Nested Learning)」架构。实验中基于该框架的「Hope」模型在语言建模与长上下文记忆任务中超越Transformer模型,这意味着大模型正迈向具备自我改进能力的新阶段。

来自主题: AI技术研报
7488 点击    2025-11-10 09:56
2张4090竟能本地微调万亿参数Kimi K2!趋境联合清华北航把算力门槛击穿了

2张4090竟能本地微调万亿参数Kimi K2!趋境联合清华北航把算力门槛击穿了

2张4090竟能本地微调万亿参数Kimi K2!趋境联合清华北航把算力门槛击穿了

微调超大参数模型,现在的“打开方式”已经大变样了: 仅需2-4 张消费级显卡(4090),就能在本地对DeepSeek 671B乃至Kimi K2 1TB这样的超大模型进行微调了。

来自主题: AI技术研报
7450 点击    2025-11-06 10:52
谷歌Dreamer大神离职!「辛顿门徒」自曝错过Transformer

谷歌Dreamer大神离职!「辛顿门徒」自曝错过Transformer

谷歌Dreamer大神离职!「辛顿门徒」自曝错过Transformer

谷歌世界模型大牛Danijar Hafner宣布离任!他自2016年起开始在Google Brain实习,后又在DeepMind、Brain Team工作。他的经历颇具传奇色彩,曾获辛顿指导,还与Łukasz Kaiser、Ashish Vaswani等Transformer大佬有过交集。

来自主题: AI资讯
7970 点击    2025-11-05 15:18
最具争议性研究:大模型中间层输出可 100% 反推原始输入

最具争议性研究:大模型中间层输出可 100% 反推原始输入

最具争议性研究:大模型中间层输出可 100% 反推原始输入

Transformer 语言模型具有单射性,隐藏状态可无损重构输入信息。

来自主题: AI技术研报
8817 点击    2025-11-04 11:32
首个实例理解3D重建模型!NTU&阶越提出基于实例解耦的3D重建模型,助理场景理解

首个实例理解3D重建模型!NTU&阶越提出基于实例解耦的3D重建模型,助理场景理解

首个实例理解3D重建模型!NTU&阶越提出基于实例解耦的3D重建模型,助理场景理解

现在,NTU联合StepFun提出了IGGT (Instance-Grounded Geometry Transformer) ,一个创新的端到端大型统一Transformer,首次将空间重建与实例级上下文理解融为一体。

来自主题: AI技术研报
5677 点击    2025-10-31 14:49
八年后,Meta教会了Transformer「显式思考」

八年后,Meta教会了Transformer「显式思考」

八年后,Meta教会了Transformer「显式思考」

最近的 Meta 可谓大动作不断,一边疯狂裁人,一边又高强度产出论文。

来自主题: AI技术研报
9632 点击    2025-10-27 10:18
一封来自Transformer之父的分手信:8年了!世界需要新的AI架构

一封来自Transformer之父的分手信:8年了!世界需要新的AI架构

一封来自Transformer之父的分手信:8年了!世界需要新的AI架构

Transformer之父「叛逃」?8年前掀起AI革命的男人,如今嫌「自己孩子」太吵太卷!当资本狂飙、论文堆积如山,他却高喊:是时候放弃Transformer,重新找回好奇心了。

来自主题: AI资讯
9554 点击    2025-10-25 13:22
比Transformer更强的架构来了?浙大新作Translution,一统卷积和自注意力

比Transformer更强的架构来了?浙大新作Translution,一统卷积和自注意力

比Transformer更强的架构来了?浙大新作Translution,一统卷积和自注意力

近日,范鹤鹤(浙江大学)、杨易(浙江大学)、Mohan Kankanhalli(新加坡国立大学)和吴飞(浙江大学)四位老师提出了一种具有划时代意义的神经网络基础操作——Translution。 该研究认为,神经网络对某种类型数据建模的本质是:

来自主题: AI技术研报
8668 点击    2025-10-23 10:59