AI资讯新闻榜单内容搜索-Llama

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Llama
中兴发了一篇论文,洞察AI更前沿的探索方向

中兴发了一篇论文,洞察AI更前沿的探索方向

中兴发了一篇论文,洞察AI更前沿的探索方向

当大模型参数量冲向万亿级,GPT-4o、Llama4 等模型不断刷新性能上限时,AI 行业也正面临前所未有的瓶颈。Transformer 架构效率低、算力消耗惊人、与物理世界脱节等问题日益凸显,通用人工智能(AGI)的实现路径亟待突破。

来自主题: AI技术研报
6834 点击    2025-11-26 13:47
当AI重新定义「科研影响力」:一场关于CSRankings的反思与重塑

当AI重新定义「科研影响力」:一场关于CSRankings的反思与重塑

当AI重新定义「科研影响力」:一场关于CSRankings的反思与重塑

在计算机科学领域, CSRankings 曾被视为一次划时代的改进。它摒弃了早期诸如 USNews 那样依赖调查问卷的主观排名体系,转而以论文发表数量这一客观指标来评估各大学的科研实力。

来自主题: AI资讯
6839 点击    2025-11-15 17:08
Llama 4造假丑闻幕后:小扎豪赌143亿,却为中国AI「做了嫁衣」

Llama 4造假丑闻幕后:小扎豪赌143亿,却为中国AI「做了嫁衣」

Llama 4造假丑闻幕后:小扎豪赌143亿,却为中国AI「做了嫁衣」

Llama4性能造假丑闻,OpenAI烧钱的速度远超过了盈利能力;另外一方面:国产模型凭借足够强大的性能与超高性价比,迅速占领了国际开源模型市场。是时候再次为国产AI鼓掌了!

来自主题: AI资讯
9483 点击    2025-11-14 09:43
2张4090竟能本地微调万亿参数Kimi K2!趋境联合清华北航把算力门槛击穿了

2张4090竟能本地微调万亿参数Kimi K2!趋境联合清华北航把算力门槛击穿了

2张4090竟能本地微调万亿参数Kimi K2!趋境联合清华北航把算力门槛击穿了

微调超大参数模型,现在的“打开方式”已经大变样了: 仅需2-4 张消费级显卡(4090),就能在本地对DeepSeek 671B乃至Kimi K2 1TB这样的超大模型进行微调了。

来自主题: AI技术研报
7326 点击    2025-11-06 10:52
独家揭秘Meta AI大裁员:Llama 4败于DeepSeek带来的恐慌|硅谷观察

独家揭秘Meta AI大裁员:Llama 4败于DeepSeek带来的恐慌|硅谷观察

独家揭秘Meta AI大裁员:Llama 4败于DeepSeek带来的恐慌|硅谷观察

出品 / 新浪科技(ID:techsina) 作者 / 郑峻 Meta AI业务大地震!新主管上任三个月后,挥起裁员大刀,基础研究部门遭受重创,连明星大牛研究员都不幸失业。扎克伯格这是急功近利,自毁长

来自主题: AI资讯
8747 点击    2025-10-27 11:54
LeCun怒揭机器人最大骗局,坦白Llama与我无瓜!

LeCun怒揭机器人最大骗局,坦白Llama与我无瓜!

LeCun怒揭机器人最大骗局,坦白Llama与我无瓜!

一场公开演讲,LeCun毫不留情揭穿真相:所谓的机器人行业,离真正的智能还远着呢!这番话像一枚深水炸弹,瞬间引爆了战火,特斯拉、Figure高管纷纷在线回怼。

来自主题: AI资讯
8729 点击    2025-10-26 14:32
田渊栋被裁后新offer排到法国!原来Llama 4.5训完后被卸磨杀驴了

田渊栋被裁后新offer排到法国!原来Llama 4.5训完后被卸磨杀驴了

田渊栋被裁后新offer排到法国!原来Llama 4.5训完后被卸磨杀驴了

刚刚从Meta一线获悉,田渊栋前脚刚发了推文说自己被裁,后脚就被解除了公司内部各种权限——嘿,亚历山大王的刀,就是这么快。这也是这次裁员中最具争议的地方,“在Meta工作已超过十年的田渊栋和他的组员,整组被一锅端了”,这是为什么?

来自主题: AI资讯
7257 点击    2025-10-24 11:45
如果中国大模型不再开源

如果中国大模型不再开源

如果中国大模型不再开源

美国 AI 圈开始出现“担心中国开源断供”的苗头了吗?10 月 20 日,在专注于开源模型讨论、拥有 55 万成员的 Reddit 分论坛“r/LocalLLaMA”上,一位网友发布了一则“当中国公司停止提供开源模型时会发生什么?”的提问,并表达了假如中国模型逐渐闭源或开始收费该怎么办的担忧。

来自主题: AI资讯
7770 点击    2025-10-22 15:06
让 llama.cpp 支持多模态向量模型

让 llama.cpp 支持多模态向量模型

让 llama.cpp 支持多模态向量模型

几周前,我们发布了 jina-embeddings-v4 模型的 GGUF 版本,大幅降低了显存占用,提升了运行效率。不过,受限于 llama.cpp 上游版本的运行时,当时的 GGUF 模型只能当作文本向量模型使用而无法支持多模态向量的输出。

来自主题: AI技术研报
8357 点击    2025-09-20 09:42
从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

过去几年,大语言模型(LLM)的训练大多依赖于基于人类或数据偏好的强化学习(Preference-based Reinforcement Fine-tuning, PBRFT):输入提示、输出文本、获得一个偏好分数。这一范式催生了 GPT-4、Llama-3 等成功的早期大模型,但局限也日益明显:缺乏长期规划、环境交互与持续学习能力。

来自主题: AI技术研报
8547 点击    2025-09-09 10:49