AI资讯新闻榜单内容搜索-8

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 8
锚定智算引擎,联想首台国产AI服务器在安徽合肥交付 | 新氪度

锚定智算引擎,联想首台国产AI服务器在安徽合肥交付 | 新氪度

锚定智算引擎,联想首台国产AI服务器在安徽合肥交付 | 新氪度

国产化不再是一个简单的口号,而是落实在具象产品之中。3月19日,36氪安徽从联宝(合肥)电子科技有限公司(简称“联宝科技”)获悉,联想首台可搭载国产AI算力芯片的联想问天WA5480 G3服务器在合肥成功交付。

来自主题: AI技术研报
3226 点击    2024-03-20 11:23
微软、国科大开启1Bit时代:大模型转三进制,速度快4倍能耗降至1/41

微软、国科大开启1Bit时代:大模型转三进制,速度快4倍能耗降至1/41

微软、国科大开启1Bit时代:大模型转三进制,速度快4倍能耗降至1/41

今天凌晨,由微软、国科大等机构提交的一篇论文在 AI 圈里被人们争相转阅。该研究提出了一种 1-bit 大模型,实现效果让人只想说两个字:震惊。

来自主题: AI技术研报
9632 点击    2024-02-29 13:42
微软6页论文爆火:三进制LLM,真香!

微软6页论文爆火:三进制LLM,真香!

微软6页论文爆火:三进制LLM,真香!

现在,大语言模型(LLM)迎来了“1-bit时代”。

来自主题: AI技术研报
2574 点击    2024-02-29 13:31
这个季度,阿里涌现出这些AI应用

这个季度,阿里涌现出这些AI应用

这个季度,阿里涌现出这些AI应用

“AI驱动”已覆盖AI基础设施、通用大模型、垂直模型及电商、办公等场景化应用。2月7日,阿里巴巴集团发布2024财年第三季度业绩。在“用户为先、AI驱动”的战略执行下,公司核心业务的结构性调整收获初步成效,集团季度收入实现5%的稳定增长。

来自主题: AI资讯
4940 点击    2024-02-07 22:03
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。

来自主题: AI技术研报
9175 点击    2024-02-04 13:59
最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发

最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发

最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发

Mixtral 8x7B模型开源后,AI社区再次迎来一大波微调实践。来自Nous Research应用研究小组团队微调出新一代大模型Nous-Hermes 2 Mixtral 8x7B,在主流基准测试中击败了Mixtral Instruct。

来自主题: AI技术研报
7166 点击    2024-01-19 14:25
开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

从 Llama、Llama 2 到 Mixtral 8x7B,开源模型的性能记录一直在被刷新。由于 Mistral 8x7B 在大多数基准测试中都优于 Llama 2 70B 和 GPT-3.5,因此它也被认为是一种「非常接近 GPT-4」的开源选项。

来自主题: AI技术研报
6164 点击    2024-01-16 14:18