摘要
本发明公开了一种基于人工智能芯片的数据处理方法,包括以下步骤:S1、实时监测输入数据流的复杂度参数;S2、利用强化学习算法动态调整芯片中各计算单元的算力分配比例;S3、采用注意力机制对视觉、语音、文本等多模态数据进行时空对齐;S4、基于长短时记忆网络预测任务执行时间;S5、自动切换计算精度模式;S6、在数据预处理阶段嵌入联邦学习框架。本发明通过强化学习算法动态调整算力分配比例,实时适配数据流复杂度,使芯片资源利用率提升,并且结合结合长短时记忆网络预测任务执行时间,调度策略将平均等待时间优化,较传统FCFS算法大幅减少延迟,并且有效过滤环境减少冗余信息的干扰。