
“FP8 精度”如何赋能国产AI?
“FP8 精度”如何赋能国产AI?当前AI大模型(LLM)训练与推理对算力的巨大需求,以及传统计算精度(如FP16/BF16)面临的功耗、内存带宽和计算效率瓶颈。
当前AI大模型(LLM)训练与推理对算力的巨大需求,以及传统计算精度(如FP16/BF16)面临的功耗、内存带宽和计算效率瓶颈。
还有不到两天,就是我国庆祝抗战和世界反法西斯战争胜利 80 周年的大阅兵了。
DeepSeek发布DeepSeek-V3.1,使用的UE8M0 FP8 Scale针对下一代国产芯片设计
随着垂直领域 agent 的兴起,市面上的应用越来越多,用户不可避免地需要一个编排工具(orchestration tool)来将这些分散的应用串联起来,或者需要某种横向工具(horizontal tool)来统一构建 agent。而 n8n 正是这一生态位中的佼佼者,它正从一个工作流自动化工具,升级为 AI 应用的编排层。
智东西9月1日消息,苹果又公布了大模型研发新进展! 8月28日,苹果在arXiv发布新论文,介绍新一代多模态基础模型MobileCLIP2及其背后的多模态强化训练机制,同天在GitHub、Hugging Face上开源了模型的预训练权重和数据生成代码。
8月28日,国内首个以AI+MGI(材料基因工程)技术为核心驱动的“干湿一体多糖生物基材料创新实验室”在浙江台州黄岩正式启用。
Intent近日宣布获得数千万美元战略投资, a16z 与 GV 联合领投,跟投方还包括几位前微信产品负责人创立的基金。在 2025 年 AI Agent 市场规模已经冲到 73.8 亿美元的节点上,这笔钱显然押注的是“聊天即执行”这个赛道的爆发潜力。
歪果仁也有自己的“手工耿”…… 一老哥用变速箱油和汽车变速箱冷却器DIY了一套显卡油冷散热。 在这套油冷散热的加持下,GTX 1080 Ti和1060的性能分别提升了7%到16%。
阿里巴巴,被曝开发了一种新型AI芯片: 比“含光800”功能更强大,可服务于更广泛的AI推理任务。 而且不再由台积电代工,而是转为另一家中国大陆企业代工生产。
当大多数人还在抱怨传统工单系统的笨重时,一家叫做 Pylon 的公司却在短短18个月内完成了从种子轮到B轮总计5100万美元的融资,估值飙升至8亿美元。更令人震惊的是,他们已经吸引了780多家快速增长的公司,包括 Together AI、Cognition 和 Temporal,其中超过150家公司主动从 Zendesk、Intercom 等老牌平台迁移过来。