AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
OpenAI获英伟达B200最强超算!GPT-5训练无底洞,微软算力却严重不足

OpenAI获英伟达B200最强超算!GPT-5训练无底洞,微软算力却严重不足

OpenAI获英伟达B200最强超算!GPT-5训练无底洞,微软算力却严重不足

继首台DGX H200之后,OpenAI再次收到了英伟达的首批工程版DGX B200。外媒爆料称,由于微软提供算力不足,OpenAI正与甲骨文开始谈判了。

来自主题: AI资讯
9568 点击    2024-10-10 14:35
清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

随着诺贝尔物理学奖颁给了「机器学习之父」Geoffrey Hinton,另一个借鉴物理学概念的模型架构也横空出世——微软清华团队的最新架构Differential Transformer,从注意力模块入手,实现了Transformer的核心能力提升。

来自主题: AI技术研报
9155 点击    2024-10-10 14:24
综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

随着大规模语言模型的快速发展,如 GPT、Claude 等,LLM 通过预训练海量的文本数据展现了惊人的语言生成能力。然而,即便如此,LLM 仍然存在生成不当或偏离预期的结果。这种现象在推理过程中尤为突出,常常导致不准确、不符合语境或不合伦理的回答。为了解决这一问题,学术界和工业界提出了一系列对齐(Alignment)技术,旨在优化模型的输出,使其更加符合人类的价值观和期望。

来自主题: AI技术研报
9755 点击    2024-10-10 12:21
这篇论文非常火!差分Transformer竟能消除注意力噪声,犹如降噪耳机

这篇论文非常火!差分Transformer竟能消除注意力噪声,犹如降噪耳机

这篇论文非常火!差分Transformer竟能消除注意力噪声,犹如降噪耳机

Transformer 的强大实力已经在诸多大型语言模型(LLM)上得到了证明,但该架构远非完美,也有很多研究者致力于改进这一架构,比如机器之心曾报道过的 Reformer 和 Infini-Transformer。

来自主题: AI技术研报
7487 点击    2024-10-10 12:15
开发者火冒三丈炮轰GenAI:垃圾语料太多,模型正在变得越来越笨

开发者火冒三丈炮轰GenAI:垃圾语料太多,模型正在变得越来越笨

开发者火冒三丈炮轰GenAI:垃圾语料太多,模型正在变得越来越笨

生成式AI(GenAI),尤其是以OpenAI的ChatGPT为代表,人们发现,这些大模型在一年多后的性能表现远不及刚发布时那样令人惊艳了。

来自主题: AI资讯
4688 点击    2024-10-08 18:59
「乘法变加法」!MIT清华校友全新方法优化Transformer:Addition is All You Need

「乘法变加法」!MIT清华校友全新方法优化Transformer:Addition is All You Need

「乘法变加法」!MIT清华校友全新方法优化Transformer:Addition is All You Need

Transformer计算,竟然直接优化到乘法运算了。MIT两位华人学者近期发表的一篇论文提出:Addition is All You Need,让LLM的能耗最高降低95%。

来自主题: AI技术研报
5006 点击    2024-10-08 17:32
做语料交易平台,Cloudflare要为站长“主持公道”

做语料交易平台,Cloudflare要为站长“主持公道”

做语料交易平台,Cloudflare要为站长“主持公道”

这样一套组合拳打下去,AI厂商大概率就会乖乖向网站付费了。

来自主题: AI资讯
7059 点击    2024-10-08 17:18