AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Transforme
6700万参数比肩万亿巨兽GPT-4!微软MIT等联手破解Transformer推理密码

6700万参数比肩万亿巨兽GPT-4!微软MIT等联手破解Transformer推理密码

6700万参数比肩万亿巨兽GPT-4!微软MIT等联手破解Transformer推理密码

来自微软、MIT等机构的学者提出了一种创新的训练范式,攻破了大模型的推理缺陷。他们通过因果模型构建数据集,直接教模型学习公理,结果只有67M参数的微型Transformer竟能媲美GPT-4的推理能力。

来自主题: AI技术研报
8352 点击    2024-07-14 13:52
Mamba真比Transformer更优吗?Mamba原作者:两个都要!混合架构才是最优解

Mamba真比Transformer更优吗?Mamba原作者:两个都要!混合架构才是最优解

Mamba真比Transformer更优吗?Mamba原作者:两个都要!混合架构才是最优解

Mamba模型由于匹敌Transformer的巨大潜力,在推出半年多的时间内引起了巨大关注。但在大规模预训练的场景下,这两个架构还未有「一较高低」的机会。最近,英伟达、CMU、普林斯顿等机构联合发表的实证研究论文填补了这个空白。

来自主题: AI技术研报
3813 点击    2024-07-13 19:32
生成式模型不只会「模仿」!哈佛、UCSB等最新成果:性能可超越训练集专家水平

生成式模型不只会「模仿」!哈佛、UCSB等最新成果:性能可超越训练集专家水平

生成式模型不只会「模仿」!哈佛、UCSB等最新成果:性能可超越训练集专家水平

生成式模型原本被设计来模仿人类的各种复杂行为,但人们普遍认为它们最多只能达到与其训练数据中的专家相当的水平。不过,最新的研究突破了这一限制,表明在特定领域,如国际象棋,通过采用低温采样技术,这些模型能够超越它们所学习的那些专家,展现出更高的能力。

来自主题: AI技术研报
9410 点击    2024-07-12 17:18
大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer

大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer

大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer

超越Transformer和Mamba的新架构,刚刚诞生了。斯坦福UCSD等机构研究者提出的TTT方法,直接替代了注意力机制,语言模型方法从此或将彻底改变。

来自主题: AI技术研报
5371 点击    2024-07-09 15:41
30倍于传统方法,中国科学院团队Transformer深度学习模型预测糖-蛋白质作用位点

30倍于传统方法,中国科学院团队Transformer深度学习模型预测糖-蛋白质作用位点

30倍于传统方法,中国科学院团队Transformer深度学习模型预测糖-蛋白质作用位点

糖类是自然界中最丰富的有机物质,对生命至关重要。了解糖类如何在生理和病理过程中调节蛋白质,可以为解决关键的生物学问题和开发新的治疗方法提供机遇。

来自主题: AI技术研报
9515 点击    2024-07-01 13:30