AI资讯新闻榜单内容搜索-小模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 小模型
马斯克大赞阿里 AI,9B 参数硬刚 120B,海外网友:这叫小模型?

马斯克大赞阿里 AI,9B 参数硬刚 120B,海外网友:这叫小模型?

马斯克大赞阿里 AI,9B 参数硬刚 120B,海外网友:这叫小模型?

昨天深夜,阿里通义千问团队在 X 平台正式发布了 Qwen3.5 小模型系列,覆盖 0.8B、2B、4B 和 9B 四个参数规格。甫一发布,便在海外科技圈引发强烈反响。马斯克也在该推文下评论称:「Impressive intelligence density」(令人印象深刻的智能密度)。这股热度的背后,APPSO 也好奇,为什么这几款小模型能够激起如此大的波澜?

来自主题: AI资讯
9678 点击    2026-03-03 14:35
小模型+Agent Skills能用吗?这份基于POMDP的工业级本地化Agent报告太硬核!

小模型+Agent Skills能用吗?这份基于POMDP的工业级本地化Agent报告太硬核!

小模型+Agent Skills能用吗?这份基于POMDP的工业级本地化Agent报告太硬核!

各位对Agent Skill早已轻车熟路。不可否认,在Claude code、Openclaw的加持下,这套框架效果极佳。但工业界的痛点在于:它几乎沦为了超大型闭源API的专属玩具。当您的项目面临金融

来自主题: AI技术研报
8533 点击    2026-02-27 10:48
Loop-ViT:让AI学会「反复思考」,3.8M参数小模型追平人类平均水平

Loop-ViT:让AI学会「反复思考」,3.8M参数小模型追平人类平均水平

Loop-ViT:让AI学会「反复思考」,3.8M参数小模型追平人类平均水平

当我们解一道复杂的数学题或观察一幅抽象图案时,大脑往往需要反复思考、逐步推演。然而,当前主流的深度学习模型却走的是「一次通过」的路线——输入数据,经过固定层数的网络,直接输出答案。

来自主题: AI技术研报
10059 点击    2026-02-13 11:08
0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

等效参数量仅0.3B,内存占用仅600MB,更适合端侧部署还带思维链的模型来了。腾讯混元最新推出面向消费级硬件场景的“极小”模型HY-1.8B-2Bit,体量甚至比常用的一些手机应用还小。

来自主题: AI技术研报
7037 点击    2026-02-10 14:28
抛弃向量推荐!蚂蚁用8B小模型构建「用户“话”像」,实现跨任务跨模型通用并拿下SOTA

抛弃向量推荐!蚂蚁用8B小模型构建「用户“话”像」,实现跨任务跨模型通用并拿下SOTA

抛弃向量推荐!蚂蚁用8B小模型构建「用户“话”像」,实现跨任务跨模型通用并拿下SOTA

怎样做一个爆款大模型应用?这恐怕是2026年AI开发者们都在关注的问题。当算力和性能不再是唯一的护城河,“爆款”意味着大模型要能精准地“抓住”每一名具体的用户,而个性化正是其中的关键技术之一。

来自主题: AI技术研报
6677 点击    2026-02-01 13:10
一口气集齐老黄苏妈英特尔,还得是AI,还得是联想

一口气集齐老黄苏妈英特尔,还得是AI,还得是联想

一口气集齐老黄苏妈英特尔,还得是AI,还得是联想

联想给出的公式是,混合AI=个人智能+企业智能+公共智能。这种模式下,AI智能体应用不再依赖于单一的云端模型,而是云端大模型与本地定制化小模型的深度融合。

来自主题: AI资讯
9169 点击    2026-01-09 14:41
信息论证明,小模型跑在本地才是Agent的终极解法|斯坦福重磅

信息论证明,小模型跑在本地才是Agent的终极解法|斯坦福重磅

信息论证明,小模型跑在本地才是Agent的终极解法|斯坦福重磅

在近一年里,Agentic System(代理系统/智能体系统)正变得无处不在。从Open AI的Deep Research到Claude Code,我们看到越来越多的系统不再依赖单一模型,而是通过多模型协作来完成复杂的长窗口任务。

来自主题: AI技术研报
9288 点击    2026-01-04 10:20
独家 | 清华00后博士融资数千万,打造全球现象级端侧算力引擎,性能领跑行业

独家 | 清华00后博士融资数千万,打造全球现象级端侧算力引擎,性能领跑行业

独家 | 清华00后博士融资数千万,打造全球现象级端侧算力引擎,性能领跑行业

。过去的行业共识是:端侧只能跑小模型,性能与体验必须妥协;真正的能力仍得依赖云端最强模型。万格智元要打破的,正是这条旧认知。公司正在打造的cPilot端侧算力引擎,选择了一条更难、却更接近未来的路径:通过自研的非GPU推理引擎,让300亿、500亿等超大模型在性能有限制的消费硬件上高效推理

来自主题: AI资讯
11023 点击    2025-12-26 15:49