AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

MoE已然成为AI界的主流架构,不论是开源Grok,还是闭源GPT-4,皆是其拥趸。然而,这些模型的专家,最大数量仅有32个。最近,谷歌DeepMind提出了全新的策略PEER,可将MoE扩展到百万个专家,还不会增加计算成本。

来自主题: AI技术研报
10092 点击    2024-07-15 20:01
MotionClone:无需训练,一键克隆视频运动

MotionClone:无需训练,一键克隆视频运动

MotionClone:无需训练,一键克隆视频运动

无需训练或微调,在提示词指定的新场景中克隆参考视频的运动,无论是全局的相机运动还是局部的肢体运动都可以一键搞定。

来自主题: AI技术研报
6954 点击    2024-07-15 14:10
存储大厂“激战”HBM

存储大厂“激战”HBM

存储大厂“激战”HBM

HBM因AI大模型训练需求爆增,市场火热。

来自主题: AI资讯
6797 点击    2024-07-15 13:44
AI大模型有望再扩1000倍!剑桥耶鲁康奈尔:PNN是变革关键

AI大模型有望再扩1000倍!剑桥耶鲁康奈尔:PNN是变革关键

AI大模型有望再扩1000倍!剑桥耶鲁康奈尔:PNN是变革关键

最近,多个机构学者合著的一篇研究为AI的规模化指了一条新路:物理神经网络(PNN),这一新兴的前沿领域还鲜少有人涉足,但绝对值得深耕!AI模型再扩展1000倍的秘密可能就藏在这里。

来自主题: AI技术研报
9578 点击    2024-07-14 14:01
6700万参数比肩万亿巨兽GPT-4!微软MIT等联手破解Transformer推理密码

6700万参数比肩万亿巨兽GPT-4!微软MIT等联手破解Transformer推理密码

6700万参数比肩万亿巨兽GPT-4!微软MIT等联手破解Transformer推理密码

来自微软、MIT等机构的学者提出了一种创新的训练范式,攻破了大模型的推理缺陷。他们通过因果模型构建数据集,直接教模型学习公理,结果只有67M参数的微型Transformer竟能媲美GPT-4的推理能力。

来自主题: AI技术研报
10036 点击    2024-07-14 13:52
Meta开发System 2蒸馏技术,Llama 2对话模型任务准确率接近100%

Meta开发System 2蒸馏技术,Llama 2对话模型任务准确率接近100%

Meta开发System 2蒸馏技术,Llama 2对话模型任务准确率接近100%

研究者表示,如果 Sytem 2 蒸馏可以成为未来持续学习 AI 系统的重要特征,则可以进一步提升 System 2 表现不那么好的推理任务的性能。

来自主题: AI技术研报
10723 点击    2024-07-14 13:36
端侧设备AI代理优化框架问世,领域内准确率可达97%

端侧设备AI代理优化框架问世,领域内准确率可达97%

端侧设备AI代理优化框架问世,领域内准确率可达97%

AI 代理得越来越重要,能够实现自主决策和解决问题。为了有效运作,这些代理需要一个确定最佳行动方案的规划过程,然后执行计划的行动。

来自主题: AI技术研报
4902 点击    2024-07-13 20:06
豆包大模型团队发布全新Detail Image Caption评估基准,提升VLM Caption评测可靠性

豆包大模型团队发布全新Detail Image Caption评估基准,提升VLM Caption评测可靠性

豆包大模型团队发布全新Detail Image Caption评估基准,提升VLM Caption评测可靠性

当前的视觉语言模型(VLM)主要通过 QA 问答形式进行性能评测,而缺乏对模型基础理解能力的评测,例如 detail image caption 性能的可靠评测手段。

来自主题: AI技术研报
11387 点击    2024-07-13 20:01