演示者站在画面右侧,靠近投影仪屏幕。观众坐在前面。
密歇根数据科学研究所(MIDAS)于周二在卢里工程中心主办了“建设道德和值得信赖的人工智能”论坛。朱莉安·尹(Julianne Yoon)/每日。 买这张照片。

大约50名研究人员、学生和行业专业人士聚集在卢里工程中心星期二的讨论关于人工智能的伦理。该论坛题为“从理论到实践:构建道德和值得信赖的人工智能”,由密歇根数据科学研究所有三位主旨演讲人以及“闪电演讲”和小组讨论。

信息学博士候选人夸梅·波特-罗宾逊在论坛上谈到了创建基于满足社区需求的计算基础设施。他说,人工智能政策通常采用自上而下的方法,侧重于政府或企业层面的变革,而不是从社区成员和工人开始的自下而上的方法。

波特-罗宾逊说:“在人工智能伦理中,人们通常倾向于自上而下的方法或政策或监管方面的干预点,但也有其他选择。”。“你可以从工人开始,也可以从直接受到影响的人开始,询问他们的想法。”

主旨演讲人、计算机科学与工程副教授Jenna Wiens谈到了AI偏差在医疗环境中。她解释说,人工智能程序可以发现某些相关性,例如,使用起搏器的患者更有可能被诊断但这些相关性并不一定对诊断有用。

维恩斯说:“这是一个问题,因为这个模型了解到有起搏器和心力衰竭风险更大之间的联系。”。“如果起搏器不在,临床医生仍会诊断该患者患有心力衰竭。起搏器不是临床相关的放射学发现。”

论坛发言人之一、陶布曼建筑与城市规划学院(Taubman College of Architecture and urban Planning)城市技术实践助理教授埃里萨·恩根(Elisa Ngan)表示,人工智能偏见不会完全消失,因此重要的是要考虑新的方法来克服偏见,并创建将危害降至最低的软件。

Ngan说:“我认为重要的是要认识到偏见问题不一定会完全消失。”。“因此,考虑真正的问题是什么,以及部署解决方案所需的操作类型,以及我们是否需要在工作方式上进行创新,从敏捷开发过渡到作为团队的完全不同的工作方式,是构建安全软件所必需的。”

Merve Hickok,信息学院副讲师人工智能与数字政策中心,是论坛的主旨发言人。在活动结束后接受《每日邮报》采访时,她表示,她认为在制定人工智能政策时,优先考虑公平非常重要。

希科克说:“那么,我们在刑事司法系统中使用人工智能,或者获得政府福利、教育和信贷,这会影响我们的公民权利吗?”。“这是否损害了我们的公民权利?这是否歧视了某些群体?我认为,应该首先对那些损害权利风险较高的空间进行监管。”

根据希科克的说法,制定人工智能法规的一个关键挑战是缺乏具体行动来自立法者和联邦机构。

希科克说:“你可以看到很多对话,但不一定是实施。”。“因此,你要求所有联邦机构和立法者确保这些对话正在进行,并制定了相应的法规。你可以谈论人工智能的影响和风险,讨论几个月甚至几个月。然而,因为它已经影响到公民权利和人权,你应该有适当的保护措施。”

Ngan说,她认为跨学科工作对于创建更好的人工智能系统和道德框架非常重要。

Ngan说:“我觉得每个人都想解决这个问题,但我们都在各自的学科领域内工作。”。“试图找到一种超越这一点的方法来捕捉更多的背景和人类问题,这对于创建一个实际上长期可行的系统非常重要,并且不会给那些无法设计这些系统的个人带来负担,这些人不是律师、设计师、工程师,但仍然受到其影响。”


夏季新闻编辑阿比盖尔·范德莫伦(Abigail VanderMolen)vabigail@umich.edu