摘要
本发明公开了一种基于人工智能的云计算的数据处理方法,涉及云计算技术领域,所述方法包括:步骤1:在每个时间片内,网关统计新到请求的参数,对参数做归一化熵‑密度评估,记录新到请求的最大熵‑密度;步骤2:调度器按内容边界将新到请求的数据流分成多个分片,计算分片‑节点映射压力;步骤3:持续监控全局请求到达速率与单核服务速率之间的差距,再结合目标节点GPU的峰值算力、总线带宽和当前队列深度,预测分片对应的任务的完工时间;步骤4:网关动态调整下一时间片的最大入站速率,从而在保持吞吐稳定的同时抑制尾部延迟。本发明显著提升了复杂数据在动态环境中的处理质量与系统鲁棒性。