Incorporating Literals into Knowledge Graph Embeddings阅读笔记

读完了前两章,简单的看了一下作者提出的模型,感觉并没有太大价值,就是给实体输入多加入了一个literal的信息(加入方法可以采用线性、非线性或者神经网络)。

读论文前需要先熟悉DistMult、ComlLEx和ConvE模型,此论文方法是添加在这些方法上的。


 上一篇
ERNIE Enhanced Language Representation with Informative Entities阅读笔记 ERNIE Enhanced Language Representation with Informative Entities阅读笔记
该篇论文借鉴BERT,试图将实体信息(TransE)融入token(singal word)中,通过类似实体对齐的方法将实体与token对齐(并采取mask方式进行预训练),通过infromation fusion 将token与实体融合
下一篇 
Learning Knowledge Embeddings by Combining Limit-based Scoring Loss阅读笔记 Learning Knowledge Embeddings by Combining Limit-based Scoring Loss阅读笔记
此篇文章最为重要的就是作者设计的 margin-based ranking loss 的改进,对两个超参数$\lambda$和$\gamma$的实验,对于实验结果有很多值得分析与思考的地方。 论文下载地址 Problem Statem
  目录