AI资讯新闻榜单内容搜索-部署

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 部署
单个4090可推理,2000亿稀疏大模型「天工MoE」开源

单个4090可推理,2000亿稀疏大模型「天工MoE」开源

单个4090可推理,2000亿稀疏大模型「天工MoE」开源

在大模型浪潮中,训练和部署最先进的密集 LLM 在计算需求和相关成本上带来了巨大挑战,尤其是在数百亿或数千亿参数的规模上。为了应对这些挑战,稀疏模型,如专家混合模型(MoE),已经变得越来越重要。这些模型通过将计算分配给各种专门的子模型或「专家」,提供了一种经济上更可行的替代方案,有可能以极低的资源需求达到甚至超过密集型模型的性能。

来自主题: AI技术研报
9461 点击    2024-06-04 17:59
ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPT

ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPT

ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPT

在大模型实际部署落地的过程中,如何赋予大模型持续学习的能力是一个至关重要的挑战。这使其能够动态适应新的任务并不断获得新的知识。大模型的持续学习主要面临两个重大挑战,分别是灾难性遗忘和知识迁移。灾难性遗忘是指模型在学习新任务时,会忘记其已掌握的旧任务。知识迁移则涉及到如何在学习新任务时有效地应用旧任务的知识来提升新任务学习的效果。

来自主题: AI技术研报
9115 点击    2024-05-29 16:18
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克最近哭穷表示,xAI需要部署10万个H100才能训出Grok 3,影响全球的大模型算力荒怎么解?昨天开源的这款MoE大模型,只用了1/19算力、1/19激活参数,性能就直接全面对标Llama 3-70B!

来自主题: AI技术研报
8379 点击    2024-05-29 15:14
模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了

模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了

模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了

TinyLLaVA 项目由清华大学电子系多媒体信号与智能信息处理实验室 (MSIIP) 吴及教授团队和北京航空航天大学人工智能学院黄雷老师团队联袂打造。清华大学 MSIIP 实验室长期致力于智慧医疗、自然语言处理与知识发现、多模态等研究领域。北航团队长期致力于深度学习、多模态、计算机视觉等研究领域。

来自主题: AI技术研报
9844 点击    2024-05-27 16:24
只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调

只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调

只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调

本文由GreenBit.AI团队撰写,团队的核心成员来自德国哈索·普拉特纳计算机系统工程院开源技术小组。我们致力于推动开源社区的发展,倡导可持续的机器学习理念。我们的目标是通过提供更具成本效益的解决方案,使人工智能技术在环境和社会层面产生积极影响。

来自主题: AI技术研报
8915 点击    2024-05-25 18:15
250行代码从头搭建Llama 3,GitHub一天4.6k星!Karpathy大赞

250行代码从头搭建Llama 3,GitHub一天4.6k星!Karpathy大赞

250行代码从头搭建Llama 3,GitHub一天4.6k星!Karpathy大赞

Llama 3发布一个月后,一位开发者在GitHub上创建了名为「从头开始实现Llama 3」的项目,引起了开源社区的广泛关注。代码非常详细地展现了Llama所使用的Transformer架构,甚至让Andrej Karpathy亲自下场「背书」。

来自主题: AI技术研报
10291 点击    2024-05-21 15:20
6.99元租H800,一键部署Llama3,有羊毛速来薅!

6.99元租H800,一键部署Llama3,有羊毛速来薅!

6.99元租H800,一键部署Llama3,有羊毛速来薅!

猛然间,大模型圈掀起一股“降价风潮”。

来自主题: AI技术研报
8446 点击    2024-05-13 17:21
微软首份AI 透明度报告:构建负责任的生成式AI,有七大关键

微软首份AI 透明度报告:构建负责任的生成式AI,有七大关键

微软首份AI 透明度报告:构建负责任的生成式AI,有七大关键

智东西5月8日报道,近日,微软发布了首个年度《负责任的人工智能透明度报告》。报告概述了微软2023年制定并部署的各种措施,以及其在安全部署AI产品方面取得的成就,如创建了30个负责任的人工智能(RAI)工具,扩大了RAI团队等。

来自主题: AI技术研报
8845 点击    2024-05-09 19:33
Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存

Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存

Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存

在上一篇文章「Unsloth微调Llama3-8B,提速44.35%,节省42.58%显存,最少仅需7.75GB显存」中,我们介绍了Unsloth,这是一个大模型训练加速和显存高效的训练框架,我们已将其整合到Firefly训练框架中,并且对Llama3-8B的训练进行了测试,Unsloth可大幅提升训练速度和减少显存占用。

来自主题: AI技术研报
4432 点击    2024-05-08 12:21