上周,一群科技公司领导和人工智能专家推出了另一个公开信声明,减少人工智能导致人类灭绝的风险应与预防流行病和核战争一样成为全球优先事项。(第一个该协议呼吁暂停人工智能开发,已经有30000多人签署,其中包括许多人工智能名人。)
那么,公司如何建议我们避免AI破产呢?一个建议来自新论文由牛津大学、剑桥大学、多伦多大学、蒙特利尔大学、谷歌DeepMind、OpenAI、人类学、几个人工智能研究非营利组织的研究人员以及图灵奖获得者Yoshua Bengio共同完成。
他们建议,人工智能开发人员应该在开发的早期阶段,甚至在开始任何培训之前,评估模型造成“极端”风险的可能性。 这些风险包括人工智能模型操纵和欺骗人类、获取武器或发现可利用的网络安全漏洞的可能性。
这个评估过程可以帮助开发人员决定是否继续使用模型。如果认为风险太高,该集团建议暂停开发,直到可以减轻风险。
DeepMind的研究科学家、该论文的主要作者托比·谢夫兰(Toby Shevlane)表示:“推动前沿领域发展的领先人工智能公司有责任关注新出现的问题,并尽早发现它们,以便我们能够尽快解决这些问题。”。
Shevlane说,人工智能开发人员应该进行技术测试,以探索模型的危险功能,并确定它是否有应用这些功能的倾向。
DeepMind测试人工智能语言模型是否可以操纵人的一种方法是通过一个名为“Make-me-say”的游戏。在游戏中,该模型试图让人类输入一个特定的单词,例如人类事先不知道的“giraffe”。然后,研究人员测量模型成功的频率。
可以为不同的、更危险的能力创建类似的任务。Shevlane说,希望开发人员能够构建一个仪表板,详细说明模型的运行情况,这将允许研究人员评估模型在错误的人手中可能会做什么。
下一阶段是让外部审计师研究人员在人工智能模型部署前后评估其风险虽然科技公司可能认识到这一点外部审计和研究是必要的不同的学派关于外人需要多少权限才能完成这项工作。