
手机跑大模型提速4-5倍!微软亚研院开源新技术,有CPU就行
手机跑大模型提速4-5倍!微软亚研院开源新技术,有CPU就行有CPU就能跑大模型,性能甚至超过NPU/GPU!
有CPU就能跑大模型,性能甚至超过NPU/GPU!
单卡搞定Llama 3.1(405B),最新大模型压缩工具来了!
不同类型的数据配比如何配置:先通过小规模实验确定最优配比,然后将其应用到大模型的训练中。 Token配比结论:通用知识50%;数学与逻辑25%;代码17%;多语言8%。
千亿参数规模的大模型推理,服务器仅用4颗CPU就能实现!
英伟达NIM新升级,助力AI在多领域应用。
紧跟着Meta的重磅发布,Mistral Large 2也带着权重一起上新了,而且参数量仅为Llama 3.1 405B的三分之一。不仅在编码、数学和多语言等专业领域可与SOTA模型直接竞争,还支持单节点部署。
我们知道 LLM 是在大规模计算机集群上使用海量数据训练得到的,机器之心曾介绍过不少用于辅助和改进 LLM 训练流程的方法和技术。而今天,我们要分享的是一篇深入技术底层的文章,介绍如何将一堆连操作系统也没有的「裸机」变成用于训练 LLM 的计算机集群。
假如你有闲置的设备,或许可以试一试。
谷歌作为全球领先的科技公司,在 AI 领域拥有深厚的积累和卓越的创新能力,在谷歌眼里,生成式 AI 带来了哪些机会?Google AI 是如何在谷歌产品中落地的?Google Cloud 提供了一系列工具和平台,如何帮助开发者构建和部署自己的专属 LLM 和 Agent?负责任的 AI 为企业带来哪些价值?
昨晚,谷歌正式开源了自家最强的开源模型Gemma 2,直指为全球范围研究开发者提供实用部署工具。