摘要
本发明公开了一种基于测试阶段调整的图神经网络泛化方法,对图神经网络中批正则化层的激活行为分两步进行优化。首先,根据训练集和测试集数据统计特征之间的差异,确定调整维护的均值和方差参数所使用的权重值和掩码矩阵;其次,使用精心设计的损失函数并结合能量模型对批正则化层的缩放和偏移参数进行进一步的调整,增强模型的分布外泛化能力。同时,该方法利用来自测试样本的伪标签来减轻模型对训练数据的潜在遗忘问题。在多个真实且具有挑战性的数据集上的实验结果表明,与其他先进的同类方法相比,该方法在预测的性能上更加稳定,预测的准确性有了较大的提升。