AI资讯新闻榜单内容搜索-GPU

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GPU
1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

在Meta的Llama 3.1训练过程中,其运行的1.6万个GPU训练集群每3小时就会出现一次故障,意外故障中的半数都是由英伟达H100 GPU和HBM3内存故障造成的。

来自主题: AI技术研报
9615 点击    2024-07-29 20:16
CPU、GPU的互连从1米飙至100米,英特尔:你相信光吗?

CPU、GPU的互连从1米飙至100米,英特尔:你相信光吗?

CPU、GPU的互连从1米飙至100米,英特尔:你相信光吗?

英特尔用“光”,突破了大模型时代棘手的算力难题—— 推出业界首款全集成OCI(光学计算互连)芯片。

来自主题: AI资讯
7199 点击    2024-07-27 19:46
从裸机到700亿参数大模型,这里有份教程,还有现成可用的脚本

从裸机到700亿参数大模型,这里有份教程,还有现成可用的脚本

从裸机到700亿参数大模型,这里有份教程,还有现成可用的脚本

我们知道 LLM 是在大规模计算机集群上使用海量数据训练得到的,机器之心曾介绍过不少用于辅助和改进 LLM 训练流程的方法和技术。而今天,我们要分享的是一篇深入技术底层的文章,介绍如何将一堆连操作系统也没有的「裸机」变成用于训练 LLM 的计算机集群。

来自主题: AI技术研报
8547 点击    2024-07-24 16:57
Mamba一作再祭神作,H100利用率飙至75%!FlashAttention三代性能翻倍,比标准注意力快16倍

Mamba一作再祭神作,H100利用率飙至75%!FlashAttention三代性能翻倍,比标准注意力快16倍

Mamba一作再祭神作,H100利用率飙至75%!FlashAttention三代性能翻倍,比标准注意力快16倍

时隔一年,FlashAttention又推出了第三代更新,专门针对H100 GPU的新特性进行优化,在之前的基础上又实现了1.5~2倍的速度提升。

来自主题: AI技术研报
8388 点击    2024-07-12 16:57
AI主战场,万卡是标配:国产GPU万卡万P集群来了!

AI主战场,万卡是标配:国产GPU万卡万P集群来了!

AI主战场,万卡是标配:国产GPU万卡万P集群来了!

Scaling Law 持续见效,让算力就快跟不上大模型的膨胀速度了。「规模越大、算力越高、效果越好」成为行业圭皋。主流大模型从百亿跨越到 1.8 万亿参数只用了1年,META、Google、微软这些巨头也从 2022 年起就在搭建 15000 卡以上的超大集群。「万卡已然成为 AI 主战场的标配。」

来自主题: AI资讯
7269 点击    2024-07-05 00:11
全球AI面临6000亿美元难题,人工智能泡沫正在接近临界点!

全球AI面临6000亿美元难题,人工智能泡沫正在接近临界点!

全球AI面临6000亿美元难题,人工智能泡沫正在接近临界点!

AI基础设施的巨额投资,和实际的AI生态系统实际收入之间,差距已经到了不可思议的地步。曾经全球AI面临的2000亿美元难题,如今已经翻成了6000亿美元。

来自主题: AI资讯
407 点击    2024-07-04 16:28