AI资讯新闻榜单内容搜索-LLaMA3

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLaMA3
Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存

Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存

Unsloth x Qwen2,提速47.32%,节省39.13%显存,最少仅需8.43GB显存

在上一篇文章「Unsloth微调Llama3-8B,提速44.35%,节省42.58%显存,最少仅需7.75GB显存」中,我们介绍了Unsloth,这是一个大模型训练加速和显存高效的训练框架,我们已将其整合到Firefly训练框架中,并且对Llama3-8B的训练进行了测试,Unsloth可大幅提升训练速度和减少显存占用。

来自主题: AI技术研报
3253 点击    2024-05-08 12:21
推理超越 Llama3!面壁Ultra对齐助推开源大模型「理科状元」

推理超越 Llama3!面壁Ultra对齐助推开源大模型「理科状元」

推理超越 Llama3!面壁Ultra对齐助推开源大模型「理科状元」

两周前,OpenBMB开源社区联合面壁智能发布领先的开源大模型「Eurux-8x22B 」。相比口碑之作 Llama3-70B,Eurux-8x22B 发布时间更早,综合性能相当,尤其是拥有更强的推理性能——刷新开源大模型推理性能 SOTA,堪称开源大模型中「理科状元」。

来自主题: AI技术研报
8097 点击    2024-05-07 22:38
Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

大模型力大砖飞,让LLaMA3演绎出了新高度: 超15T Token数据上的超大规模预训练,既实现了令人印象深刻的性能提升,也因远超Chinchilla推荐量再次引爆开源社区讨论。

来自主题: AI技术研报
6709 点击    2024-04-28 15:03
仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

Snowflake 发布高「企业智能」模型 Arctic,专注于企业内部应用。

来自主题: AI技术研报
7214 点击    2024-04-25 19:28
首批中文版Llama3模型来了,解释成语、答弱智吧问题

首批中文版Llama3模型来了,解释成语、答弱智吧问题

首批中文版Llama3模型来了,解释成语、答弱智吧问题

最近,Meta 推出了 Llama 3,为开源大模型树立了新的标杆。

来自主题: AI技术研报
10127 点击    2024-04-25 17:25