摘要
本发明提供了一种基于ZNS的AI大模型存储加速算法,通过定义基于ZNS的神经网络学习算法的存储模式以及状态机调度算法,基于ZNS的SSD单独存储每层的参数,降低了设备对于大容量内存存储的需求,同时提升神经网络算法学习过程中的参数导入性能,降低整体功耗与整盘写放大。本发明结合神经网络学习算法的处理过程定义与ZNS SSD配合的上位机模式,配合上位机提升模型的运算性能,方便上层生态软件调动每个Zone的数据;ZNS SSD与上位机配合定义每层加载参数的时序,降低了大模型处理过程中对DRAM的容量需求,同时ZNS SSD在不需要加载模型参数时进入低功耗模式以节省整机功耗,便于推广大模型的应用领域和场景。