摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验
5524点击    2026-01-21 17:30

摩尔线程 AI 算力本(MTT AIBOOK)是专为 AI 学习与开发者打造的个人智算平台。它搭载自研智能 SoC 芯片「长江」,提供 50TOPS 异构 AI 算力,支持混合精度计算。运行基于 Linux 内核的 MT AIOS 操作系统,具备多系统兼容能力,并预置完整 AI 开发环境与工具链。产品内置智能体「小麦」及丰富 AI 应用,提供开箱即用的一站式 AI 体验。「本地写代码 + 小规模调试」→「云端一键调用大规模算力训练」→「模型回传本地部署」的闭环体验,才是 MTT AIBOOK 真正的杀手锏。


最近电脑圈什么最火?那必须是「AI PC」。


甚至可以说,现在是个笔记本厂商,不在发布会上提两句「AI」,出门都不好意思跟人打招呼。


但是咱们有一说一,市面上绝大多数所谓的「AI PC」,其实还是那个熟悉的配方:装个 Windows,塞个稍微强点的 NPU,然后告诉你「嘿,我们可以离线跑个美颜滤镜哦」。这就很没劲。


对于咱们这种动不动就要跑个模型、调个参,或者想在本地搓个 AI 应用的开发者(或者准开发者)来说,这种「AI PC」就像是给法拉利装了个自行车的辅助轮——看着挺花哨,真跑起来还是得靠那两条用久了发烫的 x86「腿」。


直到前段时间,我们终于拿到了摩尔线程发售的 MTT AIBOOK


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


这玩意儿挺奇怪,因为它居然不预装 Windows(但它也能跑),而是预装了一个基于 Linux 的 MT AIOS


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


官方管它叫「个人智算平台」,说它是专门为 AI 开发者、学生党准备的「第一站」。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


起初我们也就是抱着「试试看国产 GPU 到底能不能打」的心态,把它当成备用机扔进了背包。


结果没想到,一周下来,这台本子居然成了我桌面上开机率最高的设备。


甚至有点,回不去的感觉。


今天,咱们就抛开那些花里胡哨的词藻,实打实地聊聊:这台塞进了国产「长江」SoC 芯片的 MTT AIBOOK,到底是噱头,还是真家伙?


「伪装」成笔记本的 Linux 开发站


拿到真机的第一眼,这台 AIBOOK 居然有点「反差萌」。


按照常理,主打「硬核开发」的本子,通常都长得像块砖,恨不得把散热孔开到屏幕上。


但 MTT AIBOOK 拿在手里,居然有点轻薄本的意思。


全金属机身,0.15mm 的 CNC 切割工艺,摸上去那种冷峻的磨砂感,「果味」十足。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


A 面没有任何花哨的 RGB 灯带,甚至 Logo 都做得非常克制。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


这种「谦逊」的设计语言,我个人是非常吃的。


毕竟对于开发者来说,我们不需要电脑在咖啡馆里像迪厅球一样闪瞎别人的眼,我们需要的是它在跑代码的时候别掉链子。


掀开屏幕,一块 14 英寸的 2.8K OLED 屏映入眼帘。


120Hz 高刷,100% DCI-P3 色域。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


有一说一,这块屏幕的素质用来跑终端代码属于是「暴殄天物」,但用来回看刚生成的 AI 绘图,那个色彩表现力确实顶。


但真正的「硬菜」,在开机之后。


按下电源键,没有熟悉的「田字格」Logo,而是直接进入了 MT AIOS 的桌面。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


懂行的朋友都知道,Linux 才是 AI 开发的「快乐老家」。


无论是 PyTorch 这些框架,还是各种开源的大模型,在 Linux 下的兼容性和效率永远是第一梯队。


以前我们在 Windows 上做开发,要么得忍受 WSL(Windows Subsystem for Linux)偶尔的各种怪异 Bug,要么就得自己折腾双系统,把引导分区搞炸那是家常便饭。


MTT AIBOOK 的逻辑非常简单粗暴:既然大家都要用 Linux,那我直接给你原生 Linux。


不仅如此,它还解决了开发者最大的噩梦——环境配置


如果你是计算机专业的学生,或者刚入行的 AI「炼丹师」,你一定经历过这种绝望:


为了跑通一个 GitHub 上的开源项目,你花了两天时间装 CUDA、配 cuDNN、换 Python 版本、解决各种依赖冲突……最后代码还没跑,人已经麻了。这就是传说中的「环境配置火葬场」。


而这台 AIBOOK,出厂就预置了 MUSA(Meta-computing Unified System Architecture) 全套开发环境。


Python、VS Code、Jupyter Notebook、PyTorch……这些吃饭的家伙什儿,开箱即用。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


这就好比你去买房,以前是毛坯房,你得自己刷墙铺地砖;


现在摩尔线程直接给了你一套精装房,拎包入住,你只需要关心「我要写什么代码」,而不是「为什么 pip install 又报错了」。


实测一: 在国产 GPU 上

「搓」图(ComfyUI 篇) 


光说不练假把式。


既然官方号称这台机器有 50 TOPS 的异构 AI 算力,那我们必须得给它上点强度。


我们选择了目前 AI 绘画圈最硬核、最能体现算力调度的工具——ComfyUI


熟悉 AI 绘画的朋友都知道,ComfyUI 这玩意儿虽然功能强大(节点式工作流简直是极客浪漫),但它的安装门槛极其劝退。


而且,它默认是深度绑定英伟达显卡和 CUDA 生态的。


在一台国产 GPU 的笔记本上跑 ComfyUI?这听起来就像是在 PS4 上跑 Xbox 的《光环》一样离谱。


但实测下来的过程,居然顺滑得让我有点怀疑人生。


部署:从「火葬场」到「拖拽式」


按照官方给的【初级】教程,整个部署过程不仅不需要我重新编译 PyTorch,甚至都不需要我对着终端敲那行看着就头疼的:


git clone


摩尔线程显然是做了大量的底层适配工作。


他们提供了一个「特制版」的压缩包,里面已经把适配国产架构的 Torch 库和加速接口都打包好了。


操作步骤简单到令人难以置信:


  • 下载 AIBOOK 专版的 ComfyUI 压缩包。
  • 解压。
  • 打开终端,敲一行:


python main.py --gpu-only --force-fp16


完了。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


真的,就这么简单。当看到终端里跳出 Starting server 的字样,浏览器自动弹出熟悉的节点界面时,我承认我有点感动。


这不仅仅是省事,这代表了摩尔线程的工程师在底层做了大量的「脏活累活」,把异构计算的天然屏障给抹平了。


实战:SDXL Lightning 的「秒出」体验


为了测试性能,我没有用那种几十 MB 的小模型,而是直接上了 SDXL Lightning—— 这可是目前文生图领域的高质量代表。


我加载了一个官方提供的 .json 工作流文件。


如果是没接触过 ComfyUI 的小白,可能会被满屏的连线吓到。


但在 AIBOOK 上,这种节点化的操作反而显得非常直观:


  • 左边是 Checkpoints 加载器,我选好了下载好的 sdxl_lightning_4step.safetensors
  • 中间是 CLIP 文本编码器,这里就是输入提示词的地方。
  • 右边是 KSampler(采样器)和 VAE 解码


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


我试着输入了一段简洁的提示词:


Anime style, 1 girl with long pink hair, cherry blossom background,


studio ghibli aesthetic, soft lighting, intricate details Masterpiece,


best quality, 4k


然后,深吸一口气,点击运行。


此时,我能明显听到机身内部的双涡轮风扇开始介入,声音有点像飞机起飞前的滑行声——这声音对极客来说,就是「算力正在燃烧」的悦耳音符。


屏幕上的绿色进度条在各个节点之间快速跳动。


K采样器上的进度条仅仅走了几秒钟,一张可爱的小女孩图片就出现在了最右侧的预览框里。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


在这个过程中,所有的计算都在本地。


这意味着什么?


意味着我不需要把我的提示词(可能包含一些私人的创意)上传到云端;


意味着即使我现在拔掉网线,我依然可以坐在公园的长椅上,利用这颗「长江」SoC,源源不断地生成我的创意。


实测二:云端联动

硬核训练 CIFAR-10(AutoDL 篇)


当然,肯定有硬核老哥会说:「你这也就是跑个推理,只有 50 TOPS 算力,我想训练个大模型岂不是要等到天荒地老?」


这就问到点子上了。


笔记本毕竟是笔记本,受限于功耗和体积,它不可能塞进一张数据中心级别的计算卡。


但 MTT AIBOOK 的聪明之处在于,它从来没想过单打独斗。


它有一个核心理念叫——「端云一体」。


为了体验这个功能,我按照【高级】教程,尝试了一次经典的深度学习实战:CIFAR-10 图像分类训练


什么是 CIFAR-10?


简单科普下,CIFAR-10 是 CV(计算机视觉)界的「Hello World」级数据集,包含 60000 张 32x32 的彩色图片,分成了飞机、汽车、鸟、猫等 10 个类别。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


我们要做的,就是从零开始构建一个卷积神经网络(CNN),教电脑学会认图。


无缝接入 AutoDL


这次,我没有在本地死磕,而是利用 AIBOOK 预置的工具,直接连接到了 AutoDL 算力平台。


这里必须提一句,摩尔线程和 AutoDL 有深度合作,甚至在专区里你可以直接租用到搭载摩尔线程全功能 GPU 的云端实例。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


操作体验极其丝滑:


我在 AIBOOK 的本地终端里写好了代码,然后通过 SSH 连接到云端实例。


这时候,神奇的事情发生了。


我在本地 Linux 环境下写的代码,几乎不需要任何修改,就可以直接在云端的摩尔线程 GPU 上运行。


见证「MUSA」的魔力


在终端里,我先输入了一行检查指令:


python check_musa.py


屏幕返回:


设备 0:MTT S4000


显存:47.9 GB


这是国产显卡在 PyTorch 框架下发出的「我在」的声音。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


接着,开始训练:


python train_cifar10.py --model simple_resnet --epochs 10


终端里的进度条开始飞快滚动:


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


随着训练轮数(Epoch)的增加,准确率肉眼可见地提升。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


重点是,整个过程中,我使用的是标准的 PyTorch 语法,没有去写什么晦涩难懂的专有算子。


这就是 MUSA 架构最大的护城河——兼容性。它让开发者可以几乎无痛地从 CUDA 生态迁移过来。


这种「本地写代码 + 小规模调试」→「云端一键调用大规模算力训练」→「模型回传本地部署」的闭环体验,才是 MTT AIBOOK 真正的杀手锏。


它不再是一个孤立的硬件,而是一个通往庞大算力海洋的入口


谁说 Linux 不能办公?

「双面特工」的自我修养


测到这儿,肯定有朋友要问了:


「这电脑好是好,但我总不能天天写代码吧?我要是用飞书开个会,或者想打把《空洞骑士》放松一下,难道还要再买台电脑?」


这就是 MTT AIBOOK 最机智的地方。


它虽然是 Linux 核心,但它非常清楚现阶段打工人的痛点。


所以,它搞出了一个「一本三用」的方案:


  1. Host OS:原生的 MT AIOS(Linux),用来干正经事,写代码、跑模型。
  2. 安卓容器:直接在桌面运行安卓 App。我试了下,不仅能刷小红书,甚至能通过应用汇下载各种手游。摸鱼神器 get ✅。
  3. Windows 虚拟机:这才是绝杀。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


这台机器利用了 KVM 虚拟化技术,支持运行一个完整的 Windows 11。


注意,这不是像 Parallels Desktop 那种简单的模拟,它是支持 GPU 虚拟化的。


实际场景是这样的:


我在 Linux 下刚刚训练完一个模型,把它封装成了一个 .exe 的应用。


但我不知道这玩意儿在客户的 Windows 电脑上能不能跑。


这时候,我不需要到处借电脑,直接在 Dock 栏进入虚拟机,几秒钟后,一个全屏的 Windows 界面就出来了。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


我在里面测试软件、写个 PPT、甚至打开 Steam 玩了一会儿游戏,确认无误后,三指一划,又回到了 Linux 继续改代码。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


开发在 Linux,办公/测试/娱乐在 Windows/安卓。


摩尔线程AIBOOK一周实测:开箱即训的「AI Native」体验


这种「精神分裂」般的使用体验,在习惯之后,竟然觉得意外的合理。


它完美解决了开发者「既要又要」的贪婪需求。


「第一站」的意义


用了这一周,我一直在思考一个问题:


在 2026 年,我们到底需要一台什么样的 AI 电脑?


是算力强到能当暖气片?还是薄到能切菜?


摩尔线程用 MTT AIBOOK 给出的答案是:我们需要一个能让更多人低门槛进入 AI 世界的工具。


说实话,这台电脑绝非完美。


它的生态相比于沉淀了几十年的 Wintel 联盟还有差距,它的软件库可能还不如 Ubuntu 社区那么浩如烟海。


但它做对了一件至关重要的事情——它把「国产算力」这四个字,从遥远的数据中心机房,搬到了每一个普通学生、普通开发者的书桌上。


对于摩尔线程来说,这不仅仅是在卖硬件,这是在「播种」。


他们希望未来的开发者,人生的第一行 AI 代码,是在 MUSA 架构上敲下的;


他们希望未来的 AI 应用,是原生生长在国产算力平台上的。


这台 MTT AIBOOK,就像是一张通往未来 AI 时代的「入场券」。


它不是目前市面上性能最狂暴的笔记本,但它是目前最懂中国开发者痛点的「个人智算平台」。


如果 AI 的星星之火需要干柴,那这台算力本,就是那块最顺手的打火石。


推荐用户 :计算机专业学生、AI 算法工程师、Linux 发烧友等。


参考资料:


让AI开发更简单!摩尔线程发布AI算力本MTT AIBOOK


文章来自于“新智元”,作者 “艾伦”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
AI工作流

【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!

项目地址:https://github.com/coze-dev/coze-studio


【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/付费

3
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

4
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0