摘要
本发明涉及一种用于视觉任务的双图神经网络框架——Vision DualGNN(VDG)。针对现有Vision GNN(ViG)方法在构建图结构时仅依赖语义信息而导致的对象邻居分布分散及图处理不足的问题,VDG通过融合空间与语义信息,采用双流图神经网络架构,分别处理基于空间和语义构建的图,从而有效提升了图像中节点特征的表达能力和图级别的表示效果。具体而言,本发明包括:1)应用节点编码器,将图像块转换为具有高表达性的节点特征;2)构建双图结构,其中空间图作为语义图的约束条件,增强节点特征的空间感知能力。实验结果表明,本发明提出的VDG模型在ImageNet和CIFAR‑100数据集上均取得了优于其他基线模型的表现,证明了其在视觉任务中的有效性和优越性。