Convolutional 2D Knowledge Graph Embeddings 阅读笔记

0. 导读

0.1 文章是关于什么的?(what?)

用知识表示来做链接预测,其中使用了2D的卷积操作

0.2 要解决什么问题?(why?|challenge)

  • 计算速度
  • 对于复杂网络的适应性

0.3 用什么方法解决?(how?)

  • 用了2D的卷积操作

0.4文章有什么创新?

  • 首次引入一个简单的2D卷积操作来进行链接预测任务;
  • 展示了一个1-N分数过程来加速训练;
  • 提出的模型可以用于复杂图

0.5 效果如何?

0.6 还存在什么问题?

1 背景知识

通过使用2D而不是1D卷积,可以通过嵌入之间的其他交互点来提高模型的表达能力。作者考虑一个两行的1D 嵌入:

  • 过滤器大小为$k = 3$的填充一维卷积将能够在连接点周围模拟这两个嵌入之间的相互作用(相互作用的数量与$k$成正比)。

如果作者将尺寸为$m×n$的两行2D嵌入进行串联(即堆叠),其中$m = 2$和$n = 3$,则将获得以下结果:

  • 过滤器大小为3×3的填充2D卷积将能够对整个串联线之间的相互作用进行建模(相互作用的数量与n和k成正比)。

作者可以将此原理扩展为交替模式,例如:

  • 在这种情况下,二维卷积运算能够建模a和b之间的更多交互(交互数量与m,n和k成比例)。 因此,与1D卷积相比,2D卷积能够提取两个嵌入之间的更多特征交互。

2 模型ConvE

模型结构图

作者模型的主要特征是分数由2D形状嵌入上的卷积定义,数学公式如下所示:

  • 其中$\mathbf{r}_{r} \in \mathbb{R}^{k}$是一个依赖关系$r$的关系参数,$\overline{\mathbf{e}_{s}},\overline{\mathbf{r}_{r}}$分别代表$\mathrm{e}_{s}$ and $\mathbf{r}_{r}$的2D重塑:(如果$\mathbf{e}_{s}, \mathbf{r}_{r} \in \mathbb{R}^{k}$,则$\overline{\mathbf{e}_{s}}, \overline{\mathbf{r}_{r}} \in \mathbb{R}^{k_{w} \times k_{h}}$,其中$k=k_{w} k_{h}$

整个ConvE的模型流程如下:

  1. 在前馈过程中,模型对两个嵌入矩阵执行行矢量查找操作,其中一个用于实体,表示为$\mathbf{E}|\mathcal{E}| \times k$,另一用于关系式,表示为$\mathbf{R}^{|\mathcal{R}| \times k^{\prime}}$。其中$k$和$k^{\prime}$是实体和关系嵌入维度,$|\mathcal{E}|$ and $|\mathcal{R}|$代表实体和关系的数量。
  2. 然后,模型将$\overline{\mathbf{e}_{s}}$ and $\overline{\mathbf{r}_{r}}$进行串联,并将其用作带有滤波器$\omega$的2D卷积层的输入。这样一层返回一个特征图张量$\mathcal{T} \in \mathbb{R}^{c \times m \times n}$,其中$c$是维数为$m$和$n$的特征图的数量。
  3. 再将张量$\mathcal{T}$整形为一个向量
  4. 然后使用矩阵$\mathbf{W} \in \mathbb{R}^{c m n \times k}$设置的线性变化将其投影到$k$维空间中,并通过内积与嵌入$e_o$的对象匹配。
  • 卷积滤波器和矩阵$W$的参数与实体$s$和$o$以及关系$r$的参数无关。

作者用一个非线性函数sigmoid来计算得分:

最终的损失函数为:

  • 其中对于1-1的分数$t$是维度为$\mathbb{R}^{1 x 1}$的标签向量,对于1-N分数来说是$\mathbb{R}^{1 x N}$向量。当关系存在是$t=1$否则,$t=0$

模型的空间复杂度

3 实验

3.1 数据集

WN18, FB15K,YAGO3-10,Countires

作者证明了FB15k和WN18存在test leakage through inverse relations的问题:简单地通过反转训练集中的三元组就可以获得大量的测试三元组。

所以作者使用了FB15K-237和WN18RR,并且建议以后不要使用FB15K和WN18.

3.2 实验结果

3.2.1 参数效率

  • 对比参数规模和实验结果,发现ConvE模型可以在使用较少参数的时候达到较好的实验效果。

3.2.2 链接预测结果

  • 链接预测任务上各种模型的表现,ConvE模型在各个性能指标上都取得了很好的效果。

  • Table 4是将逆关系去掉之后的各个模型在数据集上的表现,逆模型法处理YAGO310和FB15k-237的逆关系
  • Toutanova和Chen(2015)用来推导FB15k-237的过程并未消除某些对称关系,例如“类似于”。 这些关系的存在解释了作者在WN18RR上的逆模型的良好评分,该评分是使用相同的过程得出的。

3.2.3 自反模型(inverse Model)

有统计数据指出在数据集WN18 和FB15K中,训练集中有94% 和81% 中三元组的逆关系在测试集中出现,可能会导致在数据集上表现的好,却只学习了某关系是其他的逆关系,而不是真正的知识图谱。

为了衡量此问题的严重性,作者构建了一个简单的基于规则的模型,该模型仅对逆关系建模。作者将此模型称为逆模型。该模型自动从训练集中提取逆关系:给定两个关系对$r_{1}, r_{2} \in \mathcal{R}$,作者检查$\left(s, r_{1}, o\right)$是否隐含$\left(o, r_{2}, s\right)$,反之亦然。

作者假设逆关系在训练,验证和测试集之间随机分布,因此,作者期望逆关系的数量与训练集的大小(与总数据集大小相比)成比例。因此,如果$\left(\mathcal{S}, \boldsymbol{r}_{1}, \boldsymbol{O}\right)$的存在与$\left(o, r_{2}, s\right)$的存在以至少$0.99-\left(f_{v}+f_{t}\right)$的频率同时出现,则作者检测到逆关系。 $f_{v},f_{t}$是验证和测试集相对于数据集总大小的分数。假定符合此标准的关系是彼此相反的。

在测试时,作者检查测试三元组是否在测试集之外具有逆匹配项:如果找到k个匹配项,则对这些匹配项的前k个排名进行抽样;如果找不到匹配项,则为测试三元组选择一个随机排名。

3.2.3 Indegree和PageRank分析

对于indegree,作者通过构建不同indegree的数据集发现:较深的模型(例如ConvE)具有对较复杂的图形进行建模的优势(例如FB15k和FB15k-237),而较浅的模型(例如DistMult)具有对较复杂的图形进行建模的优势(例如WN18 WN18RR)。

PageRank,它是节点中心性的度量。 PageRank也可以看作是节点的递归度的度量:节点的PageRank值与该节点的度数,其邻居度数,其邻居-邻居度数等相对于网络中所有其他节点成比例。

与标准链接预测变量DistMult相比,我们模型的性能提高可以部分解释,这是因为我们能够以较高的度数对节点进行高精度建模,这可能与其深度有关。

参考链接


 上一篇
在macOS Catalina中配置VS Code C++开发环境 在macOS Catalina中配置VS Code C++开发环境
一、安装VS Code及扩展 在官网下载安装mac版本VS Code 安装C/C++、C/C++ Clang Command Adapter及CodeLLDB扩展 按⇧⌘P,输入shell,选择如图命令 二、搭建测试项目在Termina
2020-09-26
下一篇 
NASE Learning Knowledge Graph Embedding for Link Prediction via Neural Architecture Search 阅读笔记 NASE Learning Knowledge Graph Embedding for Link Prediction via Neural Architecture Search 阅读笔记
0. 导读0.1 文章是关于什么的?(what?)知识图谱表示, 0.2 要解决什么问题?(why?|challenge) AutoML只在双线性语义匹配的方法中搜索适合KG的表示方法,这显然不够全面; 0.3 用什么方法解决?(how
  目录