
全球首发:QwQ-32B本地一键部署、3090单卡可跑,共享算力成关键
全球首发:QwQ-32B本地一键部署、3090单卡可跑,共享算力成关键仅仅过了一天,阿里开源的新一代推理模型便能在个人设备上跑起来了!昨天深夜,阿里重磅开源了参数量 320 亿的全新推理模型 QwQ-32B,其性能足以比肩 6710 亿参数的 DeepSeek-R1 满血版。
仅仅过了一天,阿里开源的新一代推理模型便能在个人设备上跑起来了!昨天深夜,阿里重磅开源了参数量 320 亿的全新推理模型 QwQ-32B,其性能足以比肩 6710 亿参数的 DeepSeek-R1 满血版。
RISC-V 正在成为 AI 原生计算架构。
今年两个月,赶上去年大半年。
DeepSeek开源第二弹如期而至。这一次,他们把MoE模型内核库开源了,支持FP8专为Hopper GPU设计,低延迟超高速训练推理。
英伟达凭借CUDA生态和硬件优势,稳固AI市场地位。
在AI计算资源日益稀缺的时代,Lambda凭借其独特的云GPU解决方案迅速崛起,成为资本市场的宠儿。最近,这家成立于2012年的AI云计算公司宣布完成4.8亿美元D轮融资,累计融资额达到8.63亿美元,跻身AI创投榜云科技赛道第二位,仅次于Coreweave。此次投资阵容强大,包括英伟达、AI技术大牛Andrej Karpathy,以及和硕、超微、纬创、纬颖等行业巨头的战略入股。
DeepSeek热潮将在预训练、后训练(二次训练)和推理三大细分市场都带来巨大改变。
这个AI领域千亿级市场,将辐射千家万户。 DeepSeek-R1横空出世,打响了大模型比拼性价比的第一枪。 Meta、OpenAI等国外头部大模型厂商纷纷复刻或变相降价。比DeepSeek-R1晚两周发布的OpenAI o3-mini模型,定价比前代模型o1-mini降低了超6成,比前代完整版的o1模型便宜超9成。
利用闲置算力满足 AI 初创企业的需求。由于对运行 AI 模型的需求激增,对算力的需求也随之激增。世界各地的公司都在努力寻求运行更高级 AI 模型所需的 GPU。虽然 GPU 并非运行 AI 模型的唯一选择,但它们已成为首选的硬件,因为它们能够有效地同时处理多项操作,而这是开发深度学习模型时的一个关键特性。
全球有多少AI算力?算力增长速度有多快?在这场AI「淘金热」中,都有哪些新「铲子」?AI初创企业Epoch AI发布了最新全球硬件估算报告。