人工智能为解决我们在环境方面面临的集体挑战提供了替代方法。特别是联合国可持续发展目标(SDG)(见https://sdgs.un.org/goals(网址:https://sdgs.un.org/goals))和不让任何人掉队原则(LNOB)(参见https://unsdg.un.org/2030-agenda/universal-values/leave-no-one-behind)是迫切需要采取行动的地方,科学界可以发挥重要作用

这一特别方向致力于由现实世界关键问题引发的研究,与民间社会利益相关者合作进行,并使用人工智能为可持续发展目标和LNOB工作。该课程旨在鼓励应用人工智能解决当前的全球和地方挑战,并加强公民社会-科学-政策界面。因此,包括计算机、社会和自然科学在内的多学科研究,以及与非政府组织、社区组织和政府机构的多边合作,是这一轨道提交文件的一个基本特征。

我们邀请两种类型的贡献:研究论文和研究项目提案。希望提交与人工智能和社会公益主题相关的演示的作者被邀请通过IJCAI 2023演示轨道提交(见下文)。

所有AI和Social Good提交文件的三个主要选择标准是:1)工作的科学质量以及对AI和社会或自然科学的贡献,2)与可持续发展目标和LNOB原则的相关性和影响,以及3)与掌握该主题第一手知识的民间社会利益攸关方的合作(考虑到IJCAI 2023年会议在澳门特别行政区的地点,将特别感谢与当地和区域非洲非政府组织的团队合作)。所有提交的材料应明确说明正在解决的具体现实世界挑战,确定或参考提供现场专有技术的专家利益相关者,解释该主题与可持续发展目标和LNOB原则的关系,以及对人工智能、社会或自然科学最新发展的贡献。

此外,正如提交给IJCAI 2023主赛道的研究论文一样,这一赛道上的论文应该是匿名的。与主流论文不同,没有作者反驳,也没有摘要拒绝阶段。AI for Good track中接受的研究论文将被纳入IJCAI会议记录。将颁发一个奖项来表彰这一领域的杰出研究论文。

提交研究论文

研究论文应采用与主会议相同的格式(7页+2页供参考),并遵循相同的一般说明(参见https://ijcai-23.org/call-for-papers网站/). 允许使用技术附录(包括但不限于数据集和代码)。论文预计将满足最高科学标准,就像定期提交给2023年国际学术大会主赛道一样。此外,这一领域的研究论文预计将为联合国可持续发展目标和LNOB原则提供多学科科学贡献,并提及非政府组织、社区组织和政府机构开展的工作。在这一方面,强烈鼓励提出案例研究,以证明对具体可持续发展目标和LNOB原则的实际贡献,并提供如何将全球目标转化为地方行动的示例。

此外,正如提交给IJCAI 2023主轨道的研究论文一样,该轨道的论文应该匿名的与主轨道上的论文不同无作者反驳、和无汇总拒绝阶段。AI for Good track中接受的研究论文将被纳入IJCAI会议记录。将颁发奖项以表彰这一领域的杰出研究论文。

提交研究项目建议书

人工智能和社会良好轨道的这种特定机制超出了研究目标。研究项目提案预计将连接非政府组织、学术研究和政府机构之间的点,以建立协作工作线。这一类别的提交文件可以从最初的项目想法到正在开发的项目,只要它们基于现场技术,具有多边团队合作方法,并有一个明确的实施计划,以应对对联合国可持续发展目标和LNOB原则的现实影响。

研究项目提案不打算在本版IJCAI中呈现研究结果。尽管如此,预计选定的提案将在IJCAI的三个后续版本(2024-2026)中报告其进展情况,并向其中一个会议版本提交研究论文。此外,AI and Social Good轨道的选定研究项目提案将在IJCAI 2023会议上提交给政府官员、非政府组织和私营公司小组,以获得关于项目实施计划和后续行动的反馈。

我们建议研究项目建议书采用以下结构:问题陈述(项目旨在解决的现实挑战)、与特定可持续发展目标和LNOB原则的联系、策略、方法、潜在案例研究、预期结果、评估标准、挑战和局限性、道德考虑、,实施计划和需求,项目团队描述。选择标准将包括团队在挑战和技术方面的专业知识、项目实施计划的可行性、对可持续发展目标和LNOB原则的贡献,以及对人工智能、社会或自然科学领域最先进技术的贡献。研究项目建议书应遵循与主轨道提交文件相同的格式(7页+2页参考资料)和一般说明(https://ijcai-23.org/call-for-papers网站/),但以下情况除外:与提交给主轨道的论文不同,研究项目论文不得为匿名并且必须包括一个不包括在页数中的1页附录,以及所有团队成员的简短简历。此外,允许使用技术附录(包括但不限于数据集和代码)。与主赛道上的论文不同没有作者反驳,无汇总拒绝阶段。接受的研究项目提案将在IJCAI 2023会议上公布,就像传统的技术论文一样。将颁发奖项,表彰这一领域杰出的研究项目提案。

演示的提交

与2022年不同,作者将无法直接向AI和Social Good轨道提交演示。然而,他们被邀请向IJCAI 2023演示曲目提交与该特殊曲目主题相关的演示,表明提交程序中演示的“AI和社会公益”性质。

重要日期:

  • 提交网站开放时间:2023年1月4日
  • 论文提交截止日期:2023年3月1日
  • 接受/拒绝通知:2023年4月19日

注:考虑到这一轨道的多边特性,已确定了较晚的提交截止日期(与一般轨道相比)。

所有截止日期都是地球上的任何时间。

格式准则:LaTeX样式和Word模板:https://www.ijcai.org/authors_kit

提交地点:论文应提交给https://cmt3.research.microsoft.com/IJCAI2023从下拉菜单中选择“AI for Good”。

轨道椅:

阿米尔·巴尼法特米

乔治娜·库托·雷克斯

弗兰克·迪格纳姆

纳丁·奥斯曼

咨询:轨道椅可以在aiforgood@ijcai-23.org

大型语言模型策略LLM澄清

我们(项目主席)想就IJCAI 2023年AI for Social Good轨道论文使用LLM发表以下声明:

使用大型语言模型(LLM)生成的文本(如ChatGPT)的作者应在论文中说明这一点。他们对全文及其理论和事实的正确性负责。这包括参考其他论文和附录。他们还负责确保使用这些LLM不会剽窃文本。

我们想进一步澄清这一声明背后的意图,以及我们计划如何在IJCAI 2023年为AI for Social Good轨道实施这一政策。;

意图

在过去几年中,我们观察到大规模语言模型(LLM)在研究和部署方面都取得了快速进展,并参与其中。在过去几个月里,这一进展没有减缓,只是加快了。正如包括我们在内的许多人所注意到的那样,过去几个月发布的LLM,如OpenAI的chatGPT,现在能够生成通常很难与人类书写的文本区分开来的文本片段。毫无疑问,这是自然语言处理和生成方面令人兴奋的进展。

如此迅速的进展往往会带来意想不到的后果以及无法回答的问题。例如,正如我们在过去几周已经看到的那样,有一个问题是,文本以及由大规模生成模型生成的图像是否被认为是新颖的,还是仅仅是现有作品的衍生物。还有一个问题就是文本片段的所有权,从这些生成模型中抽取的图像或任何媒体:谁拥有它,生成模型的用户,训练模型的开发人员,还是制作训练示例的内容创作者?可以肯定的是,随着时间的推移,这些问题以及更多的问题将会得到解答,因为这些大规模的生成模型将被更广泛地采用。然而,对于这些问题,我们还没有任何明确的答案。

由于我们如何回答这些问题直接影响到我们的审查过程,这反过来又影响到我们研究社区的成员及其职业生涯,因此我们想表明我们在考虑这项新技术方面的立场。OpenAI于2022年11月底发布了ChatGPT的测试版。不幸的是,我们没有足够的时间观察、调查和考虑其对我们的审查和出版过程的影响。我们决定今年(2023年)不禁止使用大规模语言模型生成文本,而是让作者负责使用文本,使论文的思想仍然清晰完整。 

我们计划调查和讨论LLM对AI领域审查和发布的积极和消极影响。这一决定将在AI for Social Good轨道的未来迭代中重新考虑。

实施和执行

众所周知,很难检测任何给定的文本片段是否由语言模型生成。AI for Social Good PC团队不计划实施任何自动化或半自动化系统,以在今年(2023年)提交检查LLM政策时运行。相反,当提交的文件引起我们的注意,并对潜在的违规行为表示严重关切时,我们计划调查任何潜在的违反LLM政策的行为。任何被标记为可能违反本LLM政策的提交文件将与其他被标记为剽窃的提交文件经历相同的过程。

随着我们在学术出版物中更多地了解LLM的后果和影响,以及我们在未来的会议(2023年后)中重新设计LLM政策,我们将考虑不同的选项和技术,以在未来的迭代中实施和实施最新的LLM政策。