AI资讯新闻榜单内容搜索-Llama

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: Llama
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B

120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B

120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B

Stability AI推出Stable LM 2 12B模型,作为其新模型系列的进一步升级,该模型基于七种语言的2万亿Token进行训练,拥有更多参数和更强性能,据称在某些基准下能超越Llama 2 70B。

来自主题: AI技术研报
7638 点击    2024-04-09 15:44
Llama提速500%!谷歌美女程序员手搓矩阵乘法内核

Llama提速500%!谷歌美女程序员手搓矩阵乘法内核

Llama提速500%!谷歌美女程序员手搓矩阵乘法内核

近日,天才程序员Justine Tunney发推表示自己更新了Llamafile的代码,通过手搓84个新的矩阵乘法内核,将Llama的推理速度提高了500%!

来自主题: AI技术研报
5041 点击    2024-04-07 17:49
超越GPT-4,斯坦福团队手机可跑的大模型火了,一夜下载量超2k

超越GPT-4,斯坦福团队手机可跑的大模型火了,一夜下载量超2k

超越GPT-4,斯坦福团队手机可跑的大模型火了,一夜下载量超2k

在大模型落地应用的过程中,端侧 AI 是非常重要的一个方向。近日,斯坦福大学研究人员推出的 Octopus v2 火了,受到了开发者社区的极大关注,模型一夜下载量超 2k。20 亿参数的 Octopus v2 可以在智能手机、汽车、个人电脑等端侧运行,在准确性和延迟方面超越了 GPT-4,并将上下文长度减少了 95%。此外,Octopus v2 比 Llama7B + RAG 方案快 36 倍。

来自主题: AI技术研报
7226 点击    2024-04-07 17:44
OpenAI 核心创始成员Andrej:让大模型像人脑一样低功耗运行

OpenAI 核心创始成员Andrej:让大模型像人脑一样低功耗运行

OpenAI 核心创始成员Andrej:让大模型像人脑一样低功耗运行

关注 OpenAI核心创始成员Andrej Karpathy 深度分享AI大模型发展及Elon管理法则。近日,OpenAI核心创始成员Andrej Karpathy(已于24年2月离职)在红杉资本进行了一场精彩的分享。

来自主题: AI资讯
6328 点击    2024-04-07 13:09
10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

“只需”10万美元,训练Llama-2级别的大模型。尺寸更小但性能不减的MoE模型来了:它叫JetMoE,来自MIT、普林斯顿等研究机构。性能妥妥超过同等规模的Llama-2。

来自主题: AI技术研报
7129 点击    2024-04-05 17:13
华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍

华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍

华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍

基于 Transformer 架构的大语言模型在 NLP 领域取得了令人惊艳的效果,然而,Transformer 中自注意力带来的二次复杂度使得大模型的推理成本和内存占用十分巨大,特别是在长序列的场景中。

来自主题: AI技术研报
4679 点击    2024-04-03 17:29
4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

AI世界的进化快的有点跟不上了。刚刚,全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程。更厉害的是,WSE-3打造的单个超算可训出24万亿参数模型,相当于GPT-4/Gemini的十倍大。

来自主题: AI资讯
8978 点击    2024-03-15 12:34
Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI

Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI

Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI

LLM开源从Infra做起!Meta公布了自己训练Llama 3的H100集群细节,看来Llama 3快来了。

来自主题: AI技术研报
3283 点击    2024-03-15 12:25
LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力

LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力

LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力

数学问题解决能力一直被视为衡量语言模型智能水平的重要指标。通常只有规模极大的模型或经过大量数学相关预训练的模型才能有机会在数学问题上表现出色。

来自主题: AI技术研报
7386 点击    2024-03-14 16:14
专为训练Llama 3,Meta 4.9万张H100集群细节公布

专为训练Llama 3,Meta 4.9万张H100集群细节公布

专为训练Llama 3,Meta 4.9万张H100集群细节公布

刚刚,Meta 宣布推出两个 24k GPU 集群(共 49152 个 H100),标志着 Meta 为人工智能的未来做出了一笔重大的投资。

来自主题: AI资讯
9117 点击    2024-03-13 14:42