AI资讯新闻榜单内容搜索-CPU

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CPU
“CEO一登录,网站就崩了”,工程师紧急排查:AI写的Bug,差点甩锅给老板!

“CEO一登录,网站就崩了”,工程师紧急排查:AI写的Bug,差点甩锅给老板!

“CEO一登录,网站就崩了”,工程师紧急排查:AI写的Bug,差点甩锅给老板!

“两次 CPU 飙升的背后有个巧合,那就是——‘我们 CEO 登录了账号。’于是,我们把 CEO 的账号给封了,继续排查原因......” 听起来像段子,但这真是 Sketch.dev 的工程师亲口写下的“事故总结”。而这一切的起因,只是因为一段由 AI 生成的代码。

来自主题: AI资讯
5543 点击    2025-08-02 16:29
秘塔AI推出“极速”模型,400 tokens/s,你搜索,我秒回

秘塔AI推出“极速”模型,400 tokens/s,你搜索,我秒回

秘塔AI推出“极速”模型,400 tokens/s,你搜索,我秒回

是的,秘塔AI搜索推出了全新“极速”模型。通过在GPU上进行kernel fusion,以及在CPU上进行动态编译优化,我们在单张H800 GPU上实现了最高400 tokens/秒的响应速度,大部分问题2秒内就能答完。

来自主题: AI资讯
9157 点击    2025-05-27 09:45
仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

仅需0.4GB,参数只有0和±1!微软开源首个原生1 bit模型,CPU轻松跑

微软研究院开源的原生1bit大模型BitNet b1.58 2B4T,将低精度与高效能结合,开创了AI轻量化的新纪元。通过精心设计的推理框架,BitNet不仅突破了内存的限制,还在多项基准测试中表现出色,甚至与全精度模型不相上下。

来自主题: AI技术研报
5882 点击    2025-04-20 21:12
天翼云CPU实例部署DeepSeek-R1模型最佳实践

天翼云CPU实例部署DeepSeek-R1模型最佳实践

天翼云CPU实例部署DeepSeek-R1模型最佳实践

本文介绍了英特尔®至强®处理器在AI推理领域的优势,如何使用一键部署的镜像进行纯CPU环境下基于AMX加速后的DeepSeek-R1 7B蒸馏模型推理,以及纯CPU环境下部署DeepSeek-R1 671B满血版模型实践。

来自主题: AI技术研报
7068 点击    2025-03-04 10:23
韩国芯片,危险

韩国芯片,危险

韩国芯片,危险

2月26日,美光宣布已率先向生态系统合作伙伴及特定客户出货专为下一代CPU设计的 1γ(1-gamma) 第六代 (10纳米级) DRAM节点DDR5内存样品。

来自主题: AI资讯
4983 点击    2025-03-04 09:50
DeepSeek上线国家超算平台!671B满血版,三大运营商接入,玄铁芯片适配

DeepSeek上线国家超算平台!671B满血版,三大运营商接入,玄铁芯片适配

DeepSeek上线国家超算平台!671B满血版,三大运营商接入,玄铁芯片适配

DeepSeek的含金量还在上升,一个半个周末过去发生这些大事:国家超算互联网平台上线DeepSeek-R1,最高支持671B的满血版。达摩院玄铁芯片成功适配DeepSeek-R1系列蒸馏模型,在RISC-V架构CPU和端侧平台打开新的应用空间。

来自主题: AI资讯
7056 点击    2025-02-10 17:30
把注意力计算丢给CPU,大模型解码吞吐量提高1.76~4.99倍

把注意力计算丢给CPU,大模型解码吞吐量提高1.76~4.99倍

把注意力计算丢给CPU,大模型解码吞吐量提高1.76~4.99倍

CPU+GPU,模型KV缓存压力被缓解了。 来自CMU、华盛顿大学、Meta AI的研究人员提出MagicPIG,通过在CPU上使用LSH(局部敏感哈希)采样技术,有效克服了GPU内存容量限制的问题。

来自主题: AI技术研报
7174 点击    2024-12-28 11:38