论文学习1-DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning

本文探讨了利用强化学习解决大规模知识图谱学习推理问题,介绍了一个基于策略的代理模型,该模型在连续空间中进行推理,相较于之前的离散空间方法,能更好地控制寻路过程,同时考虑准确性、效率和路径多样性。实验表明,该方法在两个任务上优于基于路径排序的算法和知识图嵌入方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

摘要

研究了大规模知识图的学习推理问题。更具体地说,我们描述了一个用于学习多跳关系路径的新型强化学习框架:我们使用一个基于知识图嵌入的具有连续状态的基于策略的代理,该代理通过采样最有希望的关系来扩展其路径,从而在KG向量空间中进行推理。与之前的工作相比,我们的方法包含一个考虑准确性、多样性和效率的奖励函数。实验结果表明,该方法优于基于路径排序的算法

Introduction

  • 复杂的自然语言处理问题往往需要多个相互关联的决策,而赋予深度学习模型学习推理的能力仍然是一个具有挑战性的问题

最近工作

  • Path-Ranking Algorithm(PRA)
    • PRA使用基于重启推理机制的随机行走来执行多个有界深度优先搜索过程来寻找关系路径。结合基于弹性网络的学习,PRA使用监督学习选择更合理的路径。
    • 缺点:PRA是在一个完全离散的空间中运行的,这使得在KG中评估和比较相似的实体和关系变得困难
    • 瓶颈:连接大量表单的超节点(连接大量表单的超节点
      • A potential bottleneck for random walk inference is that supernodes connecting to large amount of formulas will create huge fan-out areas that significantly slow down the inference and affect the accuracy.(随机行走推理的一个潜在瓶颈是连接大量公式的超级节点会产生巨大的扇出区域,这会显著降低推理速度并影响推理的准确性。)
      • 降低速度和准确性

基于PRA的其他方法

  • Toutanova等(2015)提出了一种针对多跳推理的卷积神经网络解决方案。他们构建了一个基于词法化依赖路径的CNN模型,该模型存在解析错误导致的错误传播问题。
  • Guu等(2015)使用KG嵌入来回答路径查询。
  • Zeng et al.(2014)描述了一种用于关系提取的CNN模型,但是它并没有明确的对关系路径进行建模。
  • Neelakantan等人(2015)提出了一种递归神经网络模型,用于知识库完成(KBC)中关系路径的建模,但是它训练了太多的独立模型,并且因此它不具有可伸缩性。
  • 注意,最近的许多KG推理方法(Neelakantan et al., 2015;(Das et al., 2017)仍然依赖于首次学习PRA路径,它只在离散空间中运行。

其他使用强化学习的方法

  • 神经符号机器(Liang et al., 2016)是KG推理的最新成果,它也应用了强化学习,但与我们的工作有不同的风格。NSM学习编写可以找到自然语言问题答案的程序,而为了得到答案,NSM学习生成一个可以组合成可执行程序的操作序列,NSM中的操作空间是一组预定义的令牌

  • 使用

我们的方法

  • 强化学习
  • 策略梯度训练
  • 连续空间:基于TransE
    • 首次提出了学习知识图中关系路径的强化学习方法;
    • 我们的学习方法使用一个复杂的奖励函数,同时考虑准确性、效率和路径多样性,在寻路过程中提供更好的控制和更大的灵活性;
    • 我们证明,我们的方法可以扩展到大规模的知识图,在两个任务中都优于PRA和KG嵌入方法。
  • 优点:与PRA相比,我们的方法是在一个连续的空间中推理,通过在奖励函数中加入各种标准,我们的强化学习(RL)框架对寻路过程有更好的控制和更大的灵活性。
  • 与NSM比:
    • 我们的RL模型则尝试通过现有的KG三元组推理向知识图(KG)中添加新的事实。
    • 在我们的框架中,目标是找到推理路径,因此动作空间是KG中的关系空间。
  • DQN比:
    • 与Deep Q Network (DQN) (Mnih et al., 2013)相比,基于策略的RL方法更适合我们的知识图场景。原因之一是,对于KG中的寻路问题,由于关系图的复杂性,使得动作空间非常大。这可能导致DQN收敛性差。此外,该策略网络可以学习一个随机策略,避免agent陷入中间状态,而不是学习DQN等基于值的方法中常见的贪婪策略

方法介绍(强化学习

In this section, we describe in detail our RL-based framework for multi-hop relation reasoning. The specific task of relation reasoning is to find reliable predictive paths between entity pairs. We formulate the path finding problem as a sequential decision making problem which can be solved with a RL agent. We first describe the environment and the policy-based RL agent. By interacting with the environment designed around the KG, the agent learns to pick the promising reasoning paths. Then we describe the training procedure of our RL model. After that, we describe an efficient path-constrained search algorithm for relation reasoning with the paths found by the RL agent.
在本节中,我们将详细描述基于rl的多跳关系推理框架。关联推理的具体任务是在实体对之间找到可靠的预测路径。我们将寻径问题描述为一个可以用RL代理来解决的顺序决策问题。我们首先描述环境和基于策略的RL代理。通过与围绕KG设计的环境交互,代理学会选择有希望的推理路径。然后描述了RL模型的训练过程。然后,我们描述了一个有效的路径约束搜索算法,用RL代理找到的路径进行关系推理。
在这里插入图片描述

  • 环境:(S,A,P,R)

  • R-奖励

    • 全局精度:走一步-1,到目的地+1
      • 因为错误决策比正确决策多得多
    • path effeciency:希望走短路径
      • r e f f e c i e n c y = 1 l e n g t h r_{effeciency}=\frac{1}{length} reffeciency=length1
    • path diversity:希望保证路径多样性
      • r d i v e r s i t y = − 1 ∣ F ∣ Σ i = 1 ∣ F ∣ c o s ( p , p i ) p = Σ i = 1 n r i , r 是 关 系 r_{diversity}=-\frac{1}{|F|}\Sigma_{i=1}^{|F|}cos(p,p_i)\\p=\Sigma_{i=1}^nr_i,r是关系 rdiversity=F1Σi=1Fcos(p,pi)p=Σi=1nri,r
  • S-状态-实体所在的位置 s t = ( e t , e t a r g e t − e t ) s_t=(e_t,e_{target}-e_t) st=(et,etargetet)

  • A-行动(边,关系)

  • 转移矩阵: P ( s i + 1 ∣ s i , a i ) P(s_{i+1}|s_i,a_i) P(si+1si,ai)

  • 采取行动的概率: π ( s , a ) = p ( a ∣ s ) \pi(s,a)=p(a|s) π(s,a)=p(as)

  • 网络:全连接网络

  • 2个隐层“:relu

  • 输出层:sofmax

  • 可能路径太多

    • AlphaGo:AlphaGo首先使用专家棋训练一个有监督的策略网络。
    • 我们:使用随机的广度优先搜索(BFS)训练监督策略。
  • 监督学习部分:

  • 对于每个关系,我们使用所有正样本的子集(实体对)来学习监督策略。对于每个阳性样本(esource、etarget),将执行一个双边BFS,以在实体之间找到相同的正确路径。对于每条路径p与关系序列r1→r2→…→rn,我们更新参数θ最大化预期累积奖励使用蒙特卡罗策略梯度

  • 总奖励:在这里插入图片描述

  • 梯度:在这里插入图片描述

  • 然而,普通的BFS是一种偏爱短路径的有偏搜索算法。当插入这些有偏差的路径时,代理很难找到可能有用的更长的路径。我们希望这些路径只由已定义的奖励函数控制。为了防止偏置搜索,我们采用了一个简单的技巧,向BFS中添加一些随机机制。我们没有直接搜索esource和etarget之间的路径,而是随机选择一个中间节点einter,然后在(esource, einter)和(einter, etarget)之间执行两个BFS。连接的路径用于训练代理。监督学习为agent节省了从失败行为中学习的大量精力。有了这些经验,我们就可以训练代理去寻找合适的路径。

  • 然后再训练
    在这里插入图片描述

  • Bi-directional Path-constrained Search减少中间节点个数(验证)
    在这里插入图片描述

### 基于强化学习的时间知识图谱问答模型 RTA 的实现与应用 #### 时间知识图谱的重要性 时间知识图谱能够捕捉事件随时间的变化和发展,对于理解动态过程至关重要。通过构建包含时间维度的知识图谱,可以更精确地表示实体间的关系及其演变情况[^1]。 #### 强化学习的作用 利用强化学习算法来增强时间知识图谱问答系统的性能是一种有效的方法。该方法允许系统根据反馈不断调整自身的策略,在面对复杂查询时做出更加合理的决策。具体来说,强化学习可以帮助优化路径选择、关系预测以及答案生成等多个方面的工作流程。 #### 模型架构设计 为了有效地处理涉及时间因素的问题,RTA 模型通常会采用一种混合结构,即结合传统的神经网络组件(如LSTM 或 Transformer)用于编码输入序列中的时间和上下文信息,并引入基于Q-learning或者Policy Gradient的强化学习模块来进行下一步动作的选择和评估。这种组合不仅提高了对长期依赖性的建模能力,还增强了应对不确定性环境下的适应性和鲁棒性[^2]。 ```python import torch.nn as nn from transformers import BertModel, BertTokenizer class TimeQA(nn.Module): def __init__(self): super(TimeQA, self).__init__() self.bert = BertModel.from_pretrained('bert-base-uncased') def forward(self, input_ids, attention_mask=None): outputs = self.bert(input_ids=input_ids, attention_mask=attention_mask) return outputs.last_hidden_state[:, 0, :] ``` 此代码片段展示了如何初始化一个简单的BERT模型作为时间感知问答的基础框架的一部分。实际的应用中还需要加入更多针对特定任务定制化的层和技术细节以完成整个RTA体系的设计[^3]。 #### 应用案例分析 在智能客服领域,RTA 可以为用户提供更为精准的历史订单追踪服务;医疗健康行业中,则可用于辅助医生回顾患者病史并提供个性化的治疗建议;金融风控部门也能借助此类技术更好地识别潜在风险信号,提前采取预防措施等。总之,随着应用场景日益多样化,基于强化学习的时间知识图谱问答模型将在众多行业发挥重要作用[^4]。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值