AI资讯新闻榜单内容搜索-GPU

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GPU
1万块GPU砸向欧洲!老黄怒怼AI末日论:全球首个工业AI云来了

1万块GPU砸向欧洲!老黄怒怼AI末日论:全球首个工业AI云来了

1万块GPU砸向欧洲!老黄怒怼AI末日论:全球首个工业AI云来了

推理模型开始「自言自语」、量子计算进入临界点……AI大航海时代已然启航,这不是一次产品发布会,而是未来的预言书。巴黎GTC大会,黄仁勋开讲了!这次他脱下了皮衣。

来自主题: AI资讯
5978 点击    2025-06-12 18:59
20人团队提前实现DeepSeek构想,AI算力变天?直击大模型算力成本痛点

20人团队提前实现DeepSeek构想,AI算力变天?直击大模型算力成本痛点

20人团队提前实现DeepSeek构想,AI算力变天?直击大模型算力成本痛点

20人国内团队,竟然提前2年预判到了DeepSeek的构想?玉盘AI的全新计算架构方案浮出水面后,直接震动业内:当前AI算力的核心瓶颈,他们试图从硬件源头解决!

来自主题: AI资讯
7116 点击    2025-06-11 11:55
影视级3D生成新王:Direct3D-S2全面开源!8块GPU超越闭源登顶HF

影视级3D生成新王:Direct3D-S2全面开源!8块GPU超越闭源登顶HF

影视级3D生成新王:Direct3D-S2全面开源!8块GPU超越闭源登顶HF

3D生成模型高光时刻来临!DreamTech联手南大、复旦、牛津发布的Direct3D-S2登顶HuggingFace热榜。仅用8块GPU训练,效果超闭源模型,直指影视级精细度。

来自主题: AI技术研报
7458 点击    2025-06-09 16:52
三年买下九家AI公司,AMD拼了

三年买下九家AI公司,AMD拼了

三年买下九家AI公司,AMD拼了

虽然 AMD 已投入大量资金来加速其 Instinct 数据中心 GPU 的开发,以便与 Nvidia 最强大的 AI 芯片正面交锋,但该公司也大力依赖收购,以便能够提供“端到端 AI 解决方案”。

来自主题: AI资讯
6650 点击    2025-06-08 11:58
让GPU不再摸鱼!清华蚂蚁联合开源首个全异步RL,一夜击穿14B SOTA

让GPU不再摸鱼!清华蚂蚁联合开源首个全异步RL,一夜击穿14B SOTA

让GPU不再摸鱼!清华蚂蚁联合开源首个全异步RL,一夜击穿14B SOTA

清华与蚂蚁联合开源AReaL-boba²,实现全异步强化学习训练系统,有效解耦模型生成与训练流程,GPU利用率大幅提升。14B模型在多个代码基准测试中达到SOTA,性能接近235B模型。异步RL训练上大分!

来自主题: AI技术研报
5068 点击    2025-06-05 16:30
终于找到一个全网最便宜的4090资源!秒级扩缩容,还量大管饱

终于找到一个全网最便宜的4090资源!秒级扩缩容,还量大管饱

终于找到一个全网最便宜的4090资源!秒级扩缩容,还量大管饱

hi 家人们,端午假期开心嘛! 除了休息工作,这次假期,我还和一位好久不见的老朋友约了一个聊天局。

来自主题: AI资讯
7790 点击    2025-06-03 17:08
每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程

每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程

每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程

现在,请大家一起数一下“1”、“2”。OK,短短2秒钟时间,一个准万亿MoE大模型就已经吃透如何解一道高等数学大题了!而且啊,这个大模型还是不用GPU来训练,全流程都是大写的“国产”的那种。

来自主题: AI技术研报
7514 点击    2025-05-31 14:11
AMD 2025年GPU战略!

AMD 2025年GPU战略!

AMD 2025年GPU战略!

2025年,AMD将推出全新的GPU路线图,瞄准两个竞争激烈的领域:游戏和AI。该公司正在推出一系列重大进展,从简化的产品命名和激进的定价,到尖端的架构和深度AI集成,这表明它决心在多个市场上缩小与英伟达的差距。

来自主题: AI资讯
7306 点击    2025-05-30 14:54
妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

斯坦福Hazy实验室推出新一代低延迟推理引擎「Megakernel」,将Llama-1B模型前向传播完整融合进单一GPU内核,实现推理时间低于1毫秒。在B200上每次推理仅需680微秒,比vLLM快3.5倍。

来自主题: AI技术研报
7815 点击    2025-05-30 12:36