AI资讯新闻榜单内容搜索-GPU

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: GPU
英伟达年终核弹!全新B300为o1推理大模型打造,RTX5090也曝光了

英伟达年终核弹!全新B300为o1推理大模型打造,RTX5090也曝光了

英伟达年终核弹!全新B300为o1推理大模型打造,RTX5090也曝光了

GPU新核弹B300,以及附带CPU的超级芯片GB300。 高算力,在产品层面上相比B200在FLOPS上提高50% 大显存,从192GB提升到288GB,也是提高了50%。

来自主题: AI资讯
6772 点击    2024-12-26 16:00
【独家】小米正搭建GPU万卡集群,将对AI大模型大力投入

【独家】小米正搭建GPU万卡集群,将对AI大模型大力投入

【独家】小米正搭建GPU万卡集群,将对AI大模型大力投入

12月26日,界面新闻独家获悉,小米正在着手搭建自己的GPU万卡集群,将对AI大模型大力投入。小米大模型团队在成立时已有6500张GPU资源。

来自主题: AI资讯
6699 点击    2024-12-26 15:52
AI视频生成平台全球前3,成本暴降50%方案开源!500元GPU算力免费薅

AI视频生成平台全球前3,成本暴降50%方案开源!500元GPU算力免费薅

AI视频生成平台全球前3,成本暴降50%方案开源!500元GPU算力免费薅

随着Sora震撼发布,视频生成技术成为了AI领域新风口。不过,高昂的开发成本是一大瓶颈。国产平台Video Ocean不仅成功登上全球热榜第三,还将视频生成模型开发成本降低50%。而且,模型构建和性能优化方案现已开源,还能免费获得500元GPU算力。

来自主题: AI技术研报
3791 点击    2024-12-24 17:09
AI浪潮下算力需求井喷,谁能在这一轮新型基础设施下拔得头筹

AI浪潮下算力需求井喷,谁能在这一轮新型基础设施下拔得头筹

AI浪潮下算力需求井喷,谁能在这一轮新型基础设施下拔得头筹

联想第六代“海神”液冷技术,已实现支持多类型GPU、CPU,散热效率可达98%,PUE最佳可降至1.1,极大降低了数据中心的能耗水平。

来自主题: AI资讯
6738 点击    2024-12-21 11:40
花几个亿建智算中心,八成的GPU租不出去

花几个亿建智算中心,八成的GPU租不出去

花几个亿建智算中心,八成的GPU租不出去

许多没有任何GPU背景、算力行业经验的上市公司,将智算中心当做他们发展第二曲线的抓手,筹谋向AI领域转型——比如,生产味精的公司(莲花控股)、造染料的公司(锦鸡股份)、甚至还有博彩行业的玩家(鸿博股份)等等。 但到2024年年底,情况出现了逆转。

来自主题: AI资讯
7484 点击    2024-12-20 10:21
全球最强GPU订单曝光,TOP 1微软一年买爆近50万块!xAI晒首批GB200提前过年

全球最强GPU订单曝光,TOP 1微软一年买爆近50万块!xAI晒首批GB200提前过年

全球最强GPU订单曝光,TOP 1微软一年买爆近50万块!xAI晒首批GB200提前过年

2024年英伟达GPU全球最大买家,竟是微软?购买总量将近50万块,超所有竞争对手近两倍。xAI已开心晒出首批发货的GB200 NVL72,喜滋滋的像是提前过年了。囤的GPU越多,模型就会越好吗?来不及解释了,赶紧上车,车门焊死!

来自主题: AI资讯
7237 点击    2024-12-19 14:08
英伟达下代RTX 50系列显卡规格被泄露,旗舰5090显存达32GB

英伟达下代RTX 50系列显卡规格被泄露,旗舰5090显存达32GB

英伟达下代RTX 50系列显卡规格被泄露,旗舰5090显存达32GB

明年的国际消费类电子产品展览会(CES 2025)将在北京时间 1 月 8 日至 11 日举行,包括英特尔、英伟达和 AMD 在内的各大 CPU、GPU 厂商将带着自家最新产品闪亮登场。

来自主题: AI资讯
6504 点击    2024-12-18 14:25
全球五大巨头GPU总量曝光!2025年等效H100或超1240万块

全球五大巨头GPU总量曝光!2025年等效H100或超1240万块

全球五大巨头GPU总量曝光!2025年等效H100或超1240万块

AI巨头的芯片之争,谷歌微软目前分列一二。而xAI作为新入局者,正迅速崛起。这场竞争中,谁会成为最后赢家?

来自主题: AI资讯
7147 点击    2024-12-02 16:08
80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

最新模型增量压缩技术,一个80G的A100 GPU能够轻松加载多达50个7B模型,节省显存约8倍,同时模型性能几乎与压缩前的微调模型相当。

来自主题: AI技术研报
7225 点击    2024-11-29 13:58