「AI科技评论」S. Yu 团队发布权威综述,六大开放问题函待解决,Philip( 六 )


2、统一的框架
已有多个知识图谱表征学习模型被证明是等价的 。 例如 , Hayshi和Shimbo证明了HoIE和ComplEx对于带有特定约束的链接预测任务在数学上是等价的 。 ANALOGY为几种具有代表性的模型(包括DistMult、ComplEx , 以及HoIE)给出了一个统一的视角 。 Wang等人探索了一些双线性模型之间的联系 。 Chandrahas等人探究了对于加法和乘法知识表征学习模型的几何理解 。
大多数工作分别使用不同的模型形式化定义了知识获取的知识图谱补全任务和关系抽取任务 。 Han等人将知识图谱和文本放在一起考虑 , 并且提出了一种联合学习框架 , 该框架使用了在知识图谱和文本之间共享信息的互注意力机制 。 不过这些工作对于知识表征和推理的统一理解的研究则较少 。
然而 , 像图网络的统一框架那样对该问题进行统一的研究 , 是十分有意义的 , 将填补该领域研究的空白 。
3、可解释性
知识表征和注入的可解释性对于知识获取和真实世界中的应用来说是一个关键问题 。 在可解释性方面 , 研究人员已经做了一些初步的工作 。 ITransF将稀疏向量用于知识迁移 , 并通过注意力的可视化技术实现可解释性 。 CrossE通过使用基于嵌入的路径搜索来生成对于链接预测的解释 , 从而探索了对知识图谱的解释方法 。
然而 , 尽管最近的一些神经网络已经取得了令人印象深刻的性能 , 但是它们在透明度和可解释性方面仍存在局限性 。 一些方法尝试将黑盒的神经网络模型和符号推理结合了起来 , 通过引入逻辑规则增加可解释性 。
毕竟只有实现可解释性才可以说服人们相信预测结果 , 因此研究人员需要在可解释性和提升预测知识的可信度的方面做出更多的工作 。
4、可扩展性
可扩展性是大型知识图谱的关键问题 。 我们需要在计算效率和模型的表达能力之间作出权衡 , 而只有很少的工作被应用到了多于100万个实体的场景下 。 一些嵌入方法使用了简化技术降低了计算开销(例如 , 通过循环相关运算简化张量的乘积) 。 然而 , 这些方法仍然难以扩展到数以百万计的实体和关系上 。
类似于使用马尔科夫逻辑网络这样的概率逻辑推理是计算密集型的任务 , 这使得该任务难以被扩展到大规模知识图谱上 。 最近提出的神经网络模型中的规则是由简单的暴力搜索(BF)生成的 , 这使得它在大规模知识图谱上不可行 。 例如ExpressGNN试图使用NeuralLP进行高效的规则演绎 , 但是要处理复杂的深度架构和不断增长的知识图谱还有很多研究工作有待探索 。
5、知识聚合
全局知识的聚合是基于知识的应用的核心 。 例如 , 推荐系统使用知识图谱来建模「用户-商品」的交互 , 而文本分类则一同将文本和知识图谱编码到语义空间中 。 不过 , 大多数现有的知识聚合方法都是基于注意力机制和图神经网络(GNN)设计的 。
得益于Transformers及其变体(例如BERT模型) , 自然语言处理研究社区由于大规模预训练取得了很大的进步 。 而最近的研究发现 , 使用非结构化文本构建的预训练语言模型确实可以获取到事实知识 。 大规模预训练是一种直接的知识注入方式 。 然而 , 以一种高效且可解释的方式重新思考只是聚合的方式也是很有意义的 。
6、自动构建和动态变化
现有的知识图谱高度依赖于手动的构建方式 , 这是一种开销高昂的劳动密集型任务 。 知识图谱在不同的认知智能领域的广泛应用 , 对从大规模非结构化的内容中自动构建知识图谱提出了要求 。
近期的研究主要关注的是 , 在现有的知识图谱的监督信号下 , 半自动地构建知识图谱 。 面对多模态、异构的大规模应用 , 自动化的知识图谱构建仍然面临着很大的挑战 。
目前 , 主流的研究重点关注静态的知识图谱 。 鲜有工作探究时序范围的有效性 , 并学习时序信息以及实体的动态变化 。 然而 , 许多事实仅仅在特定的时间段内成立 。


推荐阅读