摘要
本发明提出了一种基于共享编码器的知识图谱表示学习方法。与现有技术相比,本方法通过引入共享的Transformer编码器,并增加自注意力头的数量,显著减少了冗余参数。通过构建位置嵌入来保留序列的位置信息,从而提高了模型在处理序列局部与全局交互特性方面的建模能力。此外,分开编码不同实体‑关系对的设计进一步增强了模型在应对不同交互模式时的表现。该方法在较低的嵌入维度下实现了优异的性能,同时保持了较低的计算和存储开销,极大提升了模型的可扩展性。该方法能够高效地学习知识图谱中的实体和关系表示,提升三元组合理性预测的准确性,适用于大规模知识图谱的表示学习与推理任务,具有良好的泛化能力和实际应用价值。