@文章 { 佳2024忠实 , 标题 = { 基于异质源的可信时间问题解答 } , 作者 = { 贾、珍和克里斯特曼、菲利普和威库姆、格哈德 } , 杂志 = { 万维网 } , 年 = { 2024 }
git克隆 https://github.com/zhenjia2017/FAITH.git 光盘 信仰/ conda env create--文件环境.yml 康达激活信仰 pip安装-e .
pip安装sutime mvn依赖项:copy-dependencies-DoutputDirectory=/ 罐子-f $( python3-c ' 从importlib导入util; 导入路径库; print(pathlib.Path(util.find_spec(“sutime”).origin)parent/“pom.xml”) ' )
bash脚本/start_sutime_server.sh
维基百科全书_wikidata_mappings.pickle 维基百科全书_地图.pickle wikidata_mapings.pickle(维基数据映射) 类型.泡菜 停止字.txt 标签.刺绣 增强的维基数据映射包
_数据 ├── tiq(或时间问题) ├── 中间_问题 ├── tsf注释 ├── iques_型号.bin ├── tsf模型bin ├── 信仰 ├── sbert模型.bin ├── 序列2seq_ha └── 解释 ├── gnn-回答-ignn-100-05-05.bin └── gnn-修剪-ignn-100-00-10.bin ├── 解开(解开) ├── sbert模型.bin └── 解释 ├── gnn-answering-ignn-100-05-05.bin └── gnn-修剪-ignn-100-00-10.bin ├── 维基百科全书_wikidata_mappings.pickle ├── 维基百科全书_地图.pickle ├── wikidata_mapings.pickle(维基数据映射) ├── 类型.泡菜 ├── 停止字.txt ├── 标签.pickle └── 增强的维基数据映射包
tiq/interadiate_question:从GPT生成中间问题,作为训练数据集,用于在tiq基准上微调BART模型 tiq/tsf_annotation:tsf训练数据通过远程监控生成,用于在tiq基准上微调BART模型 tiq/iques_model.bin:用于生成TQU阶段中间问题的微调BART模型 tiq/tsf_model.bin:用于在TQU阶段生成tsf的微调BART模型 tiq/fails/sbert_model.bin:FER阶段评分证据的微调BERT模型 tiq/fails/seq2seq_ha:ha阶段异质应答的微调BART模型 tiq/tifies/explaignn/gnn-pruning-ignn-100-00-10.bin:HA阶段的图约简模型 tiq/fith/explaignn/gnn-answering-ignn-100-05-05.bin:HA阶段的答案推理模型 tiq/unfaith/sbert_model.bin:用于在FER阶段为unfaith设置评分证据的微调BERT模型 tiq/unfith/explaignn/gnn-pruning-ignn-100-00-10.bin:unfaith设置HA阶段的图形简化模型 tiq/unfith/explaignn/gnn-answering-ignn-100-05-05.bin:unfaith设置HA阶段的答案推理模型
bash脚本/pipeline.sh—求值 < 路径_配置 >
bash脚本/pipeline.sh—评估config/evaluate.yml
(i) 生成TSF (ii)产生中间问题
信念/距离_监督/README.md
faith/temoral_qu/implicit_resolver/seq2seq_iques/data_creation/README.md“
(i) 图形简化 (ii)答案推理
(i) 图形缩减:随着证据数量的减少,图形的大小也会减小。 证据数量从100个减少到20个。 (ii)答案推理:在20个证据中,我们进行答案推理并输出5个证据。
bash脚本/pipeline.sh—训练_ < 阶段名称 > < 路径_配置 >
bash脚本/pipeline.sh--train_ha配置/train_ha_answer_inference.yml