跳到内容
凯捷_研究_AI-AND-THE-ETICAL-CONNDRUM
数据和人工智能

人工智能与道德难题

凯捷研究所报告

在新冠肺炎危机之后,我们对人工智能的依赖急剧上升。今天,我们比以往任何时候都更加期待人工智能帮助我们限制身体互动,预测下一波疫情,对我们的医疗设施进行消毒,甚至提供食物。但我们能相信吗?

凯捷研究所(Capgemini Research Institute)的最新报告显示:人工智能与道德难题:组织如何构建道德稳健的人工智能系统并获得信任–我们调查了800多个组织和2900名消费者,以了解当今人工智能的道德状况。我们想了解组织可以做些什么来转向设计符合道德规范的人工智能系统,如何从中受益,以及如果不这样做的后果。我们发现,虽然客户越来越信任基于人工智能的互动,但组织在道德层面的进展却不尽人意。这很危险,因为一旦被侵犯,信任就很难重建。

道德健全的人工智能需要围绕审计、培训和道德操作建立强有力的领导力、治理和内部实践基础。在此基础上,组织必须:

  1. 明确概述人工智能系统的预期目的并评估其整体潜在影响
  2. 积极部署人工智能以实现可持续发展目标
  3. 在人工智能系统的整个生命周期中积极嵌入多样性和包容性原则,以促进公平
  4. 借助技术工具提高透明度,使人工智能体验人性化,确保人工智能系统的人性化监督
  5. 确保人工智能系统的技术稳健性
  6. 为客户提供隐私控制,让他们负责AI交互。

有关人工智能伦理的更多信息,下载报告.