AI资讯新闻榜单内容搜索-B200

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: B200
4倍速吊打Cursor新模型!英伟达数千GB200堆出的SWE-1.5,圆了Devin的梦!实测被曝性能“滑铁卢”?

4倍速吊打Cursor新模型!英伟达数千GB200堆出的SWE-1.5,圆了Devin的梦!实测被曝性能“滑铁卢”?

4倍速吊打Cursor新模型!英伟达数千GB200堆出的SWE-1.5,圆了Devin的梦!实测被曝性能“滑铁卢”?

近日,开发出 Devin 智能体的知名人工智能公司 Cognition 推出其全新高速 AI 编码模型 SWE-1.5。据介绍,该模型专为在软件工程任务中实现高性能与高速度而设计,现已在 Windsurf 代码编辑器中开放使用。今年 7 月,Cognition 高调收购开发工具 Windsurf。

来自主题: AI资讯
6616 点击    2025-10-31 13:57
马斯克“巨硬计划”新动作曝光!从0建起算力集群,6个月完成OpenAI&甲骨文15个月的工作

马斯克“巨硬计划”新动作曝光!从0建起算力集群,6个月完成OpenAI&甲骨文15个月的工作

马斯克“巨硬计划”新动作曝光!从0建起算力集群,6个月完成OpenAI&甲骨文15个月的工作

马斯克“巨硬计划”(MACROHARD)新动作曝光: 6个月从0建起算力集群,已完成200MW供电规模,足以支持11万台英伟达GB200 GPU NVL72。仅用6个时间,完成了OpenAI和甲骨文等合作花费15个月完成的工作,再次创造纪录。

来自主题: AI资讯
6887 点击    2025-09-19 09:21
妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

斯坦福Hazy实验室推出新一代低延迟推理引擎「Megakernel」,将Llama-1B模型前向传播完整融合进单一GPU内核,实现推理时间低于1毫秒。在B200上每次推理仅需680微秒,比vLLM快3.5倍。

来自主题: AI技术研报
8961 点击    2025-05-30 12:36
英伟达AI工厂:人类历史酝酿12000年的绝对必然

英伟达AI工厂:人类历史酝酿12000年的绝对必然

英伟达AI工厂:人类历史酝酿12000年的绝对必然

人类进化12000年,只为等AI觉醒?黄仁勋宣布「AI工厂时代」正式到来!从农业到工业再到AI革命,英伟达如何用算力推动历史巨轮?未来,每家公司都将有一个专属的超级智能工厂。并全览目前最先进的GB200 NVL72的详细参数。

来自主题: AI资讯
8971 点击    2025-04-13 10:20
谷歌最强AI芯片狙击英伟达B200,性能狂飙3600倍!谷歌版MCP一统AI智能体宇宙

谷歌最强AI芯片狙击英伟达B200,性能狂飙3600倍!谷歌版MCP一统AI智能体宇宙

谷歌最强AI芯片狙击英伟达B200,性能狂飙3600倍!谷歌版MCP一统AI智能体宇宙

谷歌重磅发布第七代TPU Ironwood,专为推理设计,性能较从初代飙升3600倍,可与英伟达B200一较高下。不仅如此,谷歌还带来了Veo 2等多款模型全新升级,就连「谷歌版」MCP协议也公布了。

来自主题: AI资讯
10133 点击    2025-04-10 10:21
英伟达下场,首次优化DeepSeek-R1!B200性能狂飙25倍,碾压H100

英伟达下场,首次优化DeepSeek-R1!B200性能狂飙25倍,碾压H100

英伟达下场,首次优化DeepSeek-R1!B200性能狂飙25倍,碾压H100

最近,英伟达开源了首个在Blackwell架构上优化的DeepSeek-R1,实现了推理速度提升25倍,和每token成本降低20倍的惊人成果。同时,DeepSeek连续开源多个英伟达GPU优化项目,共同探索模型性能极限。

来自主题: AI技术研报
10502 点击    2025-02-27 16:33
英伟达年终核弹!全新B300为o1推理大模型打造,RTX5090也曝光了

英伟达年终核弹!全新B300为o1推理大模型打造,RTX5090也曝光了

英伟达年终核弹!全新B300为o1推理大模型打造,RTX5090也曝光了

GPU新核弹B300,以及附带CPU的超级芯片GB300。 高算力,在产品层面上相比B200在FLOPS上提高50% 大显存,从192GB提升到288GB,也是提高了50%。

来自主题: AI资讯
8063 点击    2024-12-26 16:00