AI资讯新闻榜单内容搜索-A10

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: A10
AI涌现人类情感!希腊「乐之神」Orpheus开源,单卡可跑语音流式推理

AI涌现人类情感!希腊「乐之神」Orpheus开源,单卡可跑语音流式推理

AI涌现人类情感!希腊「乐之神」Orpheus开源,单卡可跑语音流式推理

开源语音模型Orpheus让LLM涌现出人类情感!在A100 40GB显卡上,30亿参数模型的流式推理速度甚至超过了音频播放速度。甚至可以zero-shot克隆声音。

来自主题: AI技术研报
5913 点击    2025-04-15 15:26
合成数据助力视频生成提速8.5倍,上海AI Lab开源AccVideo

合成数据助力视频生成提速8.5倍,上海AI Lab开源AccVideo

合成数据助力视频生成提速8.5倍,上海AI Lab开源AccVideo

虽然扩散模型在视频生成领域展现出了卓越的性能,但是视频扩散模型通常需要大量的推理步骤对高斯噪声进行去噪才能生成一个视频。这个过程既耗时又耗计算资源。例如,HunyuanVideo [1] 需要 3234 秒才能在单张 A100 上生成 5 秒、720×1280、24fps 的视频。

来自主题: AI技术研报
7875 点击    2025-04-15 10:53
AMD GPU性能暴涨7倍,优化算法首次开源!高效MoE支持任意专家数量

AMD GPU性能暴涨7倍,优化算法首次开源!高效MoE支持任意专家数量

AMD GPU性能暴涨7倍,优化算法首次开源!高效MoE支持任意专家数量

通过完全启用并发多块执行,支持任意专家数量(MAX_EXPERT_NUMBER==256),并积极利用共享内存(5kB LDS)和寄存器(52 VGPRs,48 SGPRs),MoE Align & Sort逻辑被精心设计,实现了显著的性能提升:A100提升3倍,H200提升3倍,MI100提升10倍,MI300X/MI300A提升7倍...

来自主题: AI技术研报
2632 点击    2025-04-03 16:14
GPU维修:技术外衣下的暴利产业链,一鱼三吃?!

GPU维修:技术外衣下的暴利产业链,一鱼三吃?!

GPU维修:技术外衣下的暴利产业链,一鱼三吃?!

在算力投资激增的当下,GPU卡回收与维修行业逐渐成为一条隐秘的暴利赛道。特别是一些众所周知的原因,串串资源的货源和魔改卡的维保是重灾区! 现状:运营一年以上的算力中心运营商手里一定有坏掉的A100和H100服务得不到及时维修,放在那吃灰,无法对外出租算力产生收入。

来自主题: AI资讯
8992 点击    2025-04-02 15:01
老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

老显卡福音!美团开源首发INT8无损满血版DeepSeek R1

满血版DeepSeek R1部署A100,基于INT8量化,相比BF16实现50%吞吐提升! 美团搜推机器学习团队最新开源,实现对DeepSeek R1模型基本无损的INT8精度量化。

来自主题: AI技术研报
5880 点击    2025-03-04 20:36
全球AI算力报告出炉,LLM最爱A100!谷歌坐拥超100万H100等效算力

全球AI算力报告出炉,LLM最爱A100!谷歌坐拥超100万H100等效算力

全球AI算力报告出炉,LLM最爱A100!谷歌坐拥超100万H100等效算力

全球有多少AI算力?算力增长速度有多快?在这场AI「淘金热」中,都有哪些新「铲子」?AI初创企业Epoch AI发布了最新全球硬件估算报告。

来自主题: AI技术研报
7227 点击    2025-02-15 16:51
刚刚!ASP-DAC 2025最佳论文出炉,无问芯穹上交大论文获奖

刚刚!ASP-DAC 2025最佳论文出炉,无问芯穹上交大论文获奖

刚刚!ASP-DAC 2025最佳论文出炉,无问芯穹上交大论文获奖

由无问芯穹与上海交通大学联合研究团队提出的视频生成软硬一体加速器,首次实现通过差分近似和自适应数据流解决 VDiT 生成速度缓慢瓶颈,推理速度相比 A100 提升高达 16.44 倍。

来自主题: AI资讯
8373 点击    2025-01-24 13:44
80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

最新模型增量压缩技术,一个80G的A100 GPU能够轻松加载多达50个7B模型,节省显存约8倍,同时模型性能几乎与压缩前的微调模型相当。

来自主题: AI技术研报
7243 点击    2024-11-29 13:58