AI资讯新闻榜单内容搜索-LLaMA

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLaMA
10人明星团队炼出首个微调Llama 3.1 405B!角色扮演一秒入戏,代码全开源

10人明星团队炼出首个微调Llama 3.1 405B!角色扮演一秒入戏,代码全开源

10人明星团队炼出首个微调Llama 3.1 405B!角色扮演一秒入戏,代码全开源

发布40天后,最强开源模型Llama 3.1 405B等来了微调版本的发布。但不是来自Meta,而是一个专注于开放模型的神秘初创Nous Research。

来自主题: AI技术研报
6052 点击    2024-08-16 14:49
Llama 8B搜索100次超越GPT-4o!推理+搜索即可提升性能,新「Scaling Law」诞生?

Llama 8B搜索100次超越GPT-4o!推理+搜索即可提升性能,新「Scaling Law」诞生?

Llama 8B搜索100次超越GPT-4o!推理+搜索即可提升性能,新「Scaling Law」诞生?

最近的论文表明,LLM等生成模型可以通过搜索来扩展,并实现非常显著的性能提升。另一个复现实验也发现,让参数量仅8B的Llama 3.1模型搜索100次,即可在Python代码生成任务上达到GPT-4o同等水平。

来自主题: AI技术研报
8746 点击    2024-08-15 16:05
CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

T-MAC是一种创新的基于查找表(LUT)的方法,专为在CPU上高效执行低比特大型语言模型(LLMs)推理而设计,无需权重反量化,支持混合精度矩阵乘法(mpGEMM),显著降低了推理开销并提升了计算速度。

来自主题: AI资讯
5296 点击    2024-08-13 17:42
Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人

TII开源全球第一个通用的大型Mamba架构模型Falcon Mamba 7B,性能与Transformer架构模型相媲美,在多个基准测试上的均分超过了Llama 3.1 8B和Mistral 7B。

来自主题: AI资讯
6496 点击    2024-08-13 17:07
两个AI关小黑屋:Llama3.1把Claude Opus聊自闭了

两个AI关小黑屋:Llama3.1把Claude Opus聊自闭了

两个AI关小黑屋:Llama3.1把Claude Opus聊自闭了

把Llama 3.1 405B和Claude 3超大杯Opus双双送进小黑屋,你猜怎么着——

来自主题: AI资讯
8580 点击    2024-08-11 17:16
Llama3训练每3小时崩一次?豆包大模型、港大团队为脆皮万卡训练提效

Llama3训练每3小时崩一次?豆包大模型、港大团队为脆皮万卡训练提效

Llama3训练每3小时崩一次?豆包大模型、港大团队为脆皮万卡训练提效

伴随大模型迭代速度越来越快,训练集群规模越来越大,高频率的软硬件故障已经成为阻碍训练效率进一步提高的痛点,检查点(Checkpoint)系统在训练过程中负责状态的存储和恢复,已经成为克服训练故障、保障训练进度和提高训练效率的关键。

来自主题: AI资讯
5477 点击    2024-08-08 18:53