AI资讯新闻榜单内容搜索-部署

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 部署
点冰淇淋下单25份麦乐鸡!麦当劳AI员工疯狂点餐惨遭解雇,翻车视频全网疯转

点冰淇淋下单25份麦乐鸡!麦当劳AI员工疯狂点餐惨遭解雇,翻车视频全网疯转

点冰淇淋下单25份麦乐鸡!麦当劳AI员工疯狂点餐惨遭解雇,翻车视频全网疯转

麦当劳宣布其与IBM合作进行的得来速人工智能语音点餐技术测试期结束,该技术已在100多家餐厅部署,这些餐厅将在下个月暂停此项服务。麦当劳表示,将会为自动点赞技术寻求新的合作方,潜在的合作伙伴可能包括OpenAI的Whisper/ChatGPT和谷歌的Gemini。

来自主题: AI资讯
10400 点击    2024-06-20 11:20
树莓派上部署RAG!微软Phi-3技术报告揭示「小而美」模型如何诞生

树莓派上部署RAG!微软Phi-3技术报告揭示「小而美」模型如何诞生

树莓派上部署RAG!微软Phi-3技术报告揭示「小而美」模型如何诞生

Build大会召开两周之后,微软更新了Phi-3系列模型的技术报告。不仅加入最新的基准测试结果,而且对小模型、高性能的实现机制做出了适当的揭示。

来自主题: AI技术研报
9735 点击    2024-06-17 21:49
万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化

万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化

万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化

近年来,大语言模型(Large Language Models, LLMs)受到学术界和工业界的广泛关注,得益于其在各种语言生成任务上的出色表现,大语言模型推动了各种人工智能应用(例如ChatGPT、Copilot等)的发展。然而,大语言模型的落地应用受到其较大的推理开销的限制,对部署资源、用户体验、经济成本都带来了巨大挑战。

来自主题: AI技术研报
9268 点击    2024-06-14 10:35
用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高

大型语言模型(LLM)的一个主要特点是「大」,也因此其训练和部署成本都相当高,如何在保证 LLM 准确度的同时让其变小就成了非常重要且有价值的研究课题。

来自主题: AI技术研报
8693 点击    2024-06-11 10:06
单个4090可推理,2000亿稀疏大模型「天工MoE」开源

单个4090可推理,2000亿稀疏大模型「天工MoE」开源

单个4090可推理,2000亿稀疏大模型「天工MoE」开源

在大模型浪潮中,训练和部署最先进的密集 LLM 在计算需求和相关成本上带来了巨大挑战,尤其是在数百亿或数千亿参数的规模上。为了应对这些挑战,稀疏模型,如专家混合模型(MoE),已经变得越来越重要。这些模型通过将计算分配给各种专门的子模型或「专家」,提供了一种经济上更可行的替代方案,有可能以极低的资源需求达到甚至超过密集型模型的性能。

来自主题: AI技术研报
8710 点击    2024-06-04 17:59
ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPT

ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPT

ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPT

在大模型实际部署落地的过程中,如何赋予大模型持续学习的能力是一个至关重要的挑战。这使其能够动态适应新的任务并不断获得新的知识。大模型的持续学习主要面临两个重大挑战,分别是灾难性遗忘和知识迁移。灾难性遗忘是指模型在学习新任务时,会忘记其已掌握的旧任务。知识迁移则涉及到如何在学习新任务时有效地应用旧任务的知识来提升新任务学习的效果。

来自主题: AI技术研报
8437 点击    2024-05-29 16:18
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B

马斯克最近哭穷表示,xAI需要部署10万个H100才能训出Grok 3,影响全球的大模型算力荒怎么解?昨天开源的这款MoE大模型,只用了1/19算力、1/19激活参数,性能就直接全面对标Llama 3-70B!

来自主题: AI技术研报
7532 点击    2024-05-29 15:14
模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了

模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了

模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了

TinyLLaVA 项目由清华大学电子系多媒体信号与智能信息处理实验室 (MSIIP) 吴及教授团队和北京航空航天大学人工智能学院黄雷老师团队联袂打造。清华大学 MSIIP 实验室长期致力于智慧医疗、自然语言处理与知识发现、多模态等研究领域。北航团队长期致力于深度学习、多模态、计算机视觉等研究领域。

来自主题: AI技术研报
8962 点击    2024-05-27 16:24