AI资讯新闻榜单内容搜索-GPU

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: GPU
刚刚,美国首个全球AI禁令颁布!英伟达AMD禁运,各国分三级上限5万块

刚刚,美国首个全球AI禁令颁布!英伟达AMD禁运,各国分三级上限5万块

刚刚,美国首个全球AI禁令颁布!英伟达AMD禁运,各国分三级上限5万块

美国史上首个全球AI出口管制,正式出台!刚刚,拜登在下台之际,全面发布芯片禁令,全球三级管控区域AI芯片全面禁运,二级管控区域最高可得5万块GPU。

来自主题: AI监管政策
8658 点击    2025-01-14 15:49
回望AI元年,世界看到的中国产品

回望AI元年,世界看到的中国产品

回望AI元年,世界看到的中国产品

2025年1月7日上午,在CES大会开幕式上,身穿黑皮衣的英伟达创始人黄仁勋,用一番激情演讲,拉开了新一年AI的大幕——英伟达不仅推出了新一代基于Blackwell架构的GPU RTX 5090,还发布了开源可商用的世界基础模型Cosmos。两项产品,为AI应用的变革提供了全新的“基础设施”。

来自主题: AI资讯
6949 点击    2025-01-12 09:59
智算“万卡”潮起,国产AI芯片迎高光时刻

智算“万卡”潮起,国产AI芯片迎高光时刻

智算“万卡”潮起,国产AI芯片迎高光时刻

GPU万卡集群,小米下场了!摩尔线程智算集群扩展至万卡!中国移动将商用三个自主可控万卡集群......一系列标题的袭来,让笔者突然意识到,仿佛在不经意间,智能算力建设已然迈入万卡时代。

来自主题: AI资讯
7141 点击    2025-01-09 10:08
移动光追和AI毫无建树,Imagination或又要被出售

移动光追和AI毫无建树,Imagination或又要被出售

移动光追和AI毫无建树,Imagination或又要被出售

时隔七年,曾经为苹果提供GPU IP的芯片公司Imagination又要被出售了。日前彭博社援引知情人士透露的消息称,私募基金Canyon Bridge已聘请Lazard为Imagination寻找新的买家。

来自主题: AI资讯
7058 点击    2025-01-07 09:30
多模态模型已落地多领域,OpenBayes贝式计算获评「大模型最具潜力创业企业 TOP 10」

多模态模型已落地多领域,OpenBayes贝式计算获评「大模型最具潜力创业企业 TOP 10」

多模态模型已落地多领域,OpenBayes贝式计算获评「大模型最具潜力创业企业 TOP 10」

在 2024 年的 NeurIPS 会议上,Ilya Sutskever 提出了一系列关于人工智能发展的挑战性观点,尤其集中于 Scaling Law 的观点:「现有的预训练方法将会结束」,这不仅是一次技术的自然演进,也可能标志着对当前「大力出奇迹」方法的根本性质疑。

来自主题: AI资讯
6060 点击    2025-01-02 16:31
省钱也是技术活:解密DeepSeek的极致压榨术

省钱也是技术活:解密DeepSeek的极致压榨术

省钱也是技术活:解密DeepSeek的极致压榨术

没有GPU Poor,只有卷得不够多。 DeepSeek-V3的横空出世,用一组惊人的数据完美诠释了这句话。

来自主题: AI资讯
7317 点击    2025-01-02 10:19
反手就是开源!英伟达豪掷7亿美元收购专攻GPU初创Run:ai

反手就是开源!英伟达豪掷7亿美元收购专攻GPU初创Run:ai

反手就是开源!英伟达豪掷7亿美元收购专攻GPU初创Run:ai

历经8个月,斥资约7亿美元,英伟达终于完成对AI初创Run:ai的收购,进一步完善了在AI领域的布局。Run:ai两位创始人表示,他们将会对软件进行开源。

来自主题: AI资讯
6998 点击    2024-12-31 15:21
英伟达2025祭出「迷你大脑」,雷神「Thor」剑指千亿机器人市场!

英伟达2025祭出「迷你大脑」,雷神「Thor」剑指千亿机器人市场!

英伟达2025祭出「迷你大脑」,雷神「Thor」剑指千亿机器人市场!

谷歌、亚马逊等巨头纷纷摆脱GPU依赖,于是英伟达选择押注机器人!现在,英伟达已开发了机器人全套解决方案,计划在明年年中发布全新一代人形机器人专用小型计算机Jetson Thor。全球机器人市场,或将迎来大爆发。

来自主题: AI资讯
6961 点击    2024-12-30 14:39
把注意力计算丢给CPU,大模型解码吞吐量提高1.76~4.99倍

把注意力计算丢给CPU,大模型解码吞吐量提高1.76~4.99倍

把注意力计算丢给CPU,大模型解码吞吐量提高1.76~4.99倍

CPU+GPU,模型KV缓存压力被缓解了。 来自CMU、华盛顿大学、Meta AI的研究人员提出MagicPIG,通过在CPU上使用LSH(局部敏感哈希)采样技术,有效克服了GPU内存容量限制的问题。

来自主题: AI技术研报
7025 点击    2024-12-28 11:38