AI资讯新闻榜单内容搜索-Qwen

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Qwen
不可思议!400B大模型在iPhone上跑起来了

不可思议!400B大模型在iPhone上跑起来了

不可思议!400B大模型在iPhone上跑起来了

刚看到这个 Demo 的时候着实有些想笑,很久没有见过吐词如此之慢的大模型了。观感上就像「闪电」老师。尽管只有每秒 0.6 个 tokens 的输出速率,这依旧是一个令人不可思议的工作。因为这是一个跑在 iPhone 17 Pro 上的 400B 大模型!

来自主题: AI资讯
9562 点击    2026-05-02 11:02
65元,免费开源!实时AI语音伴侣,Arduino编程 ESP32开发板,支持DeepSeek、Qwen、豆包,跨设备无缝对话

65元,免费开源!实时AI语音伴侣,Arduino编程 ESP32开发板,支持DeepSeek、Qwen、豆包,跨设备无缝对话

65元,免费开源!实时AI语音伴侣,Arduino编程 ESP32开发板,支持DeepSeek、Qwen、豆包,跨设备无缝对话

ElatoAI 是一个开源免费的实时AI语音交互系统,采用Arduino 编程,运行在乐鑫 ESP32 主控制器上,通过安全WebSocket连接至部署在Deno边缘函数构建的服务端,通过OpenAI Realtime API等技术实现低成本、长时长、跨设备的自然对话体验,支持多种AI模型,

来自主题: AI资讯
9520 点击    2026-05-01 11:10
都是你能部署的:Qwen3.6和Gemma4,谁更适合作为你的下一代本地MoE模型?

都是你能部署的:Qwen3.6和Gemma4,谁更适合作为你的下一代本地MoE模型?

都是你能部署的:Qwen3.6和Gemma4,谁更适合作为你的下一代本地MoE模型?

阿里前几天开源的Qwen3.6-35B-A3B,让这次讨论不再只是一次普通的新旧模型对比。它一边要面对谷歌Gemma4-26B-A4B的外部竞争,一边又必须回答一个更麻烦的问题:相较于 Qwen3.5-35B-A3B,它到底是升级,还是修补?更现实的是,很多人现在真正跑着的,其实是Qwen3.5-27B,那么这条新的35B-A3B路线,到底值不值得迁过去。

来自主题: AI技术研报
8560 点击    2026-04-23 09:23
阿里发布旗舰模型预览版Qwen3.6-Max-Preview!我用这个“半成品”模型,亲手造了一个macOS桌面

阿里发布旗舰模型预览版Qwen3.6-Max-Preview!我用这个“半成品”模型,亲手造了一个macOS桌面

阿里发布旗舰模型预览版Qwen3.6-Max-Preview!我用这个“半成品”模型,亲手造了一个macOS桌面

今天,阿里发布了其下一代旗舰模型的早期预览版:Qwen3.6-Max-Preview。在第三方评测榜单Artificial Analysis的智能指数排名中,Qwen3.6-Max-Preview的得分为52分,小幅超过GLM-5.1、MiniMax-M2.7,成为这一榜单上得分最高的国产模型。

来自主题: AI资讯
8121 点击    2026-04-20 22:21
日嫖1000次!Qwen3.6反代API接入任意工具

日嫖1000次!Qwen3.6反代API接入任意工具

日嫖1000次!Qwen3.6反代API接入任意工具

昨天我发现 Qwen3.6“倒反天罡”。

来自主题: AI技术研报
8294 点击    2026-04-13 15:02
Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

对本地部署玩家,尤其是Mac用户来说,长上下文推理最大的痛点往往不是“模型不够聪明”,而是稍微多用点上下文,统一内存就被撑爆了”,这一点在最近的Gemma-4 31B的部署中尤为明显,在同等上下文的情况,显存占用比Qwen3.5-27B高约一倍不止,直接劝退了不少人。但好消息是,谷歌近期提出的TurboQuant KV缓存量化算法,正是为了解决这个痛点而生。

来自主题: AI技术研报
8042 点击    2026-04-09 09:47