imPACT:明天的互联网:隐私、责任、合规和信任
推荐人的反事实解释 一种提供方机制,用于为最终用户生成切实的解释,其中解释被定义为用户执行的一组最小操作,如果删除,则会将建议更改为其他项目。 更多 新闻社区的可信度分析 一种概率图形模型,通过利用新闻社区中的联合交互,联合识别可信的新闻文章、可信的新闻来源和专家用户。 更多 健康社区的可信度分析 评估在线健康社区中用户的可信度、语言的客观性和用户声明的可信度。 更多 可信度分析的概率图形模型 概率图形模型,用于从在线社区中的大规模、非专业、用户生成的内容中提取“可信”、“可信”和“专家”信息。 更多 基于深度学习的可信度分析 一种基于深度学习的方法,用于在具有可解释解释的开放域环境中对非结构化文本声明进行可信度分析。 更多 Web可信度分析 一种通用方法,用于在开放域环境中对非结构化文本声明进行可信度分析,并提供可解释的解释。 更多 R敏感性 该项目提出了一种基于等级的方法来评估在线社区中文本内容产生的隐私风险,重点关注敏感话题,如抑郁。 更多 公平数据表示 该项目引入了一种将用户记录概率聚类为低秩表示的方法,该表示能够捕获个人公平性,同时在分类和回归模型中也能实现高精度。 更多 调解员账户 该项目提出了一个框架,利用大型社区中的团结来扰乱用户交互历史。 更多 Action和Feed之间的关系 这个项目展示了FAIRY,一个系统地发现、排序和解释用户在社交媒体提要中的行为和项目之间关系的框架。 更多 从解释反馈中学习 一个称为ELIXIR的人在环框架,其中利用用户对解释的反馈来成对学习用户偏好。 更多 ExFAKT:可解释的事实检查 基于规则形式的背景知识,从知识图和文本中获得更多人类可理解的证据。 更多