跳到内容
/ 信仰 公共

FAITH代码和数据,用于我们的WWW’24论文“异构源的可信时间问题解答”

许可证

通知 您必须登录才能更改通知设置

zhenjia2017/信仰

文件夹和文件

姓名姓名
上次提交消息
上次提交日期

最近一次提交

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

信仰

描述

此代码用于WWW’24全文“忠实时间问题”中提出的FAITH方法对异构源的回答”。

请访问以下回购链接访问TIQ基准构建的代码。

概述

信仰管道概述。该图说明了回答问题的过程(“录制时女王的唱片公司波西米亚狂想曲?”)和q1(“1975年女王唱片公司?”)。回答q,两个中间问题q31和q32生成,并在整个时态QA系统中递归运行。

有关更多详细信息,请参阅我们的论文:基于异质源的可信时间问题解答并访问我们的项目网站:网址:https://faith.mpi-inf.mpg.de.

如果您使用此代码,请引用:

@文章{佳2024忠实,标题={基于异质源的可信时间问题解答},作者={贾、珍和克里斯特曼、菲利普和威库姆、格哈德},杂志={万维网},={2024}

环境设置

我们建议通过conda进行安装,并在中提供相应的环境文件环境.yml:

git克隆https://github.com/zhenjia2017/FAITH.git光盘信仰/conda env create--文件环境.yml康达激活信仰pip安装-e.

或者,您也可以使用要求.txt文件。

依赖关系

FAITH利用CLOCQ公司用于从WIKIDATA检索事实。CLOCQ可以通过公开可用的API,使用来自的客户端回购.

FAITH利用SUTIME公司用于在问题中注释明确的日期。您可以安装蟒蛇缝合术通过以下命令。

pip安装sutimemvn依赖项:copy-dependencies-DoutputDirectory=/罐子-f$(python3-c'从importlib导入util;导入路径库;print(pathlib.Path(util.find_spec(“sutime”).origin)parent/“pom.xml”)')

然后可以运行脚本以启动SUTIME公司作为后端服务。

bash脚本/start_sutime_server.sh

数据

您需要以下数据:

  • 维基百科全书_wikidata_mappings.pickle
  • 维基百科全书_地图.pickle
  • wikidata_mapings.pickle(维基数据映射)
  • 类型.泡菜
  • 停止字.txt
  • 标签.刺绣
  • 增强的维基数据映射包

我们提供经过训练的模型和数据以重现结果。您可以从下载在这里(解压缩并将其放在“_data”文件夹中;总数据大小约为20 GB)。数据文件夹结构如下:

_数据├──tiq(或时间问题)├── 中间_问题├── tsf注释├── iques_型号.bin├── tsf模型bin├── 信仰├──sbert模型.bin├──序列2seq_ha└──解释├── gnn-回答-ignn-100-05-05.bin└── gnn-修剪-ignn-100-00-10.bin├── 解开(解开)├──sbert模型.bin└──解释├── gnn-answering-ignn-100-05-05.bin└── gnn-修剪-ignn-100-00-10.bin├── 维基百科全书_wikidata_mappings.pickle├── 维基百科全书_地图.pickle├── wikidata_mapings.pickle(维基数据映射)├── 类型.泡菜├── 停止字.txt├── 标签.pickle└── 增强的维基数据映射包
  • tiq/interadiate_question:从GPT生成中间问题,作为训练数据集,用于在tiq基准上微调BART模型
  • tiq/tsf_annotation:tsf训练数据通过远程监控生成,用于在tiq基准上微调BART模型
  • tiq/iques_model.bin:用于生成TQU阶段中间问题的微调BART模型
  • tiq/tsf_model.bin:用于在TQU阶段生成tsf的微调BART模型
  • tiq/fails/sbert_model.bin:FER阶段评分证据的微调BERT模型
  • tiq/fails/seq2seq_ha:ha阶段异质应答的微调BART模型
  • tiq/tifies/explaignn/gnn-pruning-ignn-100-00-10.bin:HA阶段的图约简模型
  • tiq/fith/explaignn/gnn-answering-ignn-100-05-05.bin:HA阶段的答案推理模型
  • tiq/unfaith/sbert_model.bin:用于在FER阶段为unfaith设置评分证据的微调BERT模型
  • tiq/unfith/explaignn/gnn-pruning-ignn-100-00-10.bin:unfaith设置HA阶段的图形简化模型
  • tiq/unfith/explaignn/gnn-answering-ignn-100-05-05.bin:unfaith设置HA阶段的答案推理模型

复制纸张结果

主要成果

请运行以下脚本以重现FAITH的主要结果(WWW 2024论文中的表3):

bash脚本/pipeline.sh—求值<路径_配置>

例如,

bash脚本/pipeline.sh—评估config/evaluate.yml

如果您想复制UNFAITH的结果,请设置信仰或不信仰作为解开(解开)在配置文件中。

培训

信仰有三个阶段:T型临时的疑问U型理解(TQU公司),F类等待E类证据R(右)检索(etrieval)(FER公司)、和E类可解释的H(H)外生的A类回答(环境影响评价).

TQU公司

在TQU阶段,有两种Seq2seq模型用于:

  • (i) 生成TSF
  • (ii)产生中间问题

我们已经分别为TIQ和TimeQuestions基准提供了带注释的TSF和中间问题作为训练数据。如果您想为其他数据集生成带注释的TSF,请按照中的说明进行操作:

信念/距离_监督/README.md

要通过GPT生成作为培训数据的中间问题,请遵循中的说明:

faith/temoral_qu/implicit_resolver/seq2seq_iques/data_creation/README.md“

FER公司

在FER阶段,我们应用基于BERT重新分类以训练分类器并对证据进行评分,作为回答的输入。

环境影响评价

在EHA阶段,有两种GNN模型用于:

  • (i) 图形简化
  • (ii)答案推理

我们在答案推理阶段应用了两个GNN模型:

  • (i) 图形缩减:随着证据数量的减少,图形的大小也会减小。证据数量从100个减少到20个。
  • (ii)答案推理:在20个证据中,我们进行答案推理并输出5个证据。

要单独培训模型,请运行以下脚本:

bash脚本/pipeline.sh—训练_<阶段名称> <路径_配置>

例如,训练答案推理模型。

bash脚本/pipeline.sh--train_ha配置/train_ha_answer_inference.yml

注意,您需要两个配置文件来分别训练这两个GNN模型。

关于

FAITH代码和数据,用于我们的WWW’24论文“异构源的可信时间问题解答”

资源

许可证

星星

观察者

叉子

包装

未发布包