AI资讯新闻榜单内容搜索-Llama

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Llama
速递|2.15亿美金豪赌AI瘦身术!Multiverse压缩LLM尺寸95%,让Llama在树莓派上狂奔

速递|2.15亿美金豪赌AI瘦身术!Multiverse压缩LLM尺寸95%,让Llama在树莓派上狂奔

速递|2.15亿美金豪赌AI瘦身术!Multiverse压缩LLM尺寸95%,让Llama在树莓派上狂奔

西班牙初创公司 Multiverse Computing 于 6 月 12 日宣布 ,凭借其名为"CompactifAI"的技术优势,已完成 1.89 亿欧元(约合 2.15 亿美元)的巨额 B 轮融资。本轮B 轮融资由 Bullhound Capital 领投,该机构曾投资过 Spotify、Revolut、Delivery Hero、Avito 和 Discord 等企业

来自主题: AI资讯
7723 点击    2025-06-13 14:36
妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

妈妈再也不用担心延迟了!斯坦福手搓Llama超级内核,推理仅需0.00068秒

斯坦福Hazy实验室推出新一代低延迟推理引擎「Megakernel」,将Llama-1B模型前向传播完整融合进单一GPU内核,实现推理时间低于1毫秒。在B200上每次推理仅需680微秒,比vLLM快3.5倍。

来自主题: AI技术研报
7816 点击    2025-05-30 12:36
刚刚2岁的Llama,「爸妈」都跑了!小扎手拆Meta AI,LeCun保持独立

刚刚2岁的Llama,「爸妈」都跑了!小扎手拆Meta AI,LeCun保持独立

刚刚2岁的Llama,「爸妈」都跑了!小扎手拆Meta AI,LeCun保持独立

面对谷歌、OpenAI等劲敌猛攻及Llama 4翻车、人才流失困境,小扎决定重组Meta GenAI团队,设AI产品、AGI基础和FAIR三大架构。

来自主题: AI资讯
3597 点击    2025-05-28 16:09
Meta「轻量级」KernelLLM颠覆GPU内核生成,8B参数碾压GPT-4o

Meta「轻量级」KernelLLM颠覆GPU内核生成,8B参数碾压GPT-4o

Meta「轻量级」KernelLLM颠覆GPU内核生成,8B参数碾压GPT-4o

Meta推出KernelLLM,这个基于Llama 3.1微调的8B模型,竟能将PyTorch代码自动转换为高效Triton GPU内核。实测数据显示,它的单次推理性能超越GPT-4o和DeepSeek V3,多次生成时得分飙升。

来自主题: AI技术研报
5761 点击    2025-05-27 18:00
英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达再破世界纪录,每秒1000 token!刚刚,全球最快Llama 4诞生

英伟达,亲手打破了自己的天花板!刚刚,Blackwell单用户每秒突破了1000个token,在Llama 4 Maverick模型上,再次创下了AI推理的世界纪录。在官博中,团队放出了不少绝密武器。

来自主题: AI资讯
8831 点击    2025-05-23 15:58
Llama 4万亿巨兽延期,80%核心元老集体辞职?

Llama 4万亿巨兽延期,80%核心元老集体辞职?

Llama 4万亿巨兽延期,80%核心元老集体辞职?

2万亿Llama4巨兽一再推迟,又传出了80%团队辞职的惊人消息!目前,发言人已辟谣消息不准确,Meta或许迎来了至暗时刻。

来自主题: AI资讯
6274 点击    2025-05-19 09:34
超越DeepSeek-R1,英伟达开源新王登顶!14万H100小时训练细节全曝光

超越DeepSeek-R1,英伟达开源新王登顶!14万H100小时训练细节全曝光

超越DeepSeek-R1,英伟达开源新王登顶!14万H100小时训练细节全曝光

超越DeepSeek-R1的英伟达开源新王Llama-Nemotron,是怎么训练出来的?刚刚放出的论文,把一切细节毫无保留地全部揭秘了!

来自主题: AI技术研报
7039 点击    2025-05-06 17:08
400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

来自英伟达和UIUC的华人团队提出一种高效训练方法,将LLM上下文长度从128K扩展至惊人的400万token SOTA纪录!基于Llama3.1-Instruct打造的UltraLong-8B模型,不仅在长上下文基准测试中表现卓越,还在标准任务中保持顶尖竞争力。

来自主题: AI技术研报
6664 点击    2025-05-01 13:54