简历阅读我们需要把无知从AI拯救出来

关闭

你已经阅读了2篇免费月刊中的1篇。了解更多

关闭
 

我们需要把无知从AI拯救出来

在一个无所不知的算法时代,我们如何选择不知道?

柏林墙倒塌后,东德市民有机会阅读斯塔西(克莉丝汀Luuk& WultVan Dun-BOS)所担心的文件。

在柏林墙倒塌之后,东德公民有机会阅读斯塔西的档案,这是非常害怕的共产主义时代秘密警察服务。迄今为止,估计只有10%的人抓住了这个机会。

在2007,James Watson,DNA结构的共同发现者,要求他没有得到任何关于他的信息。载脂蛋白E基因,其中一个等位基因是阿尔茨海默病的已知危险因素。

大多数人告诉民意测验者,如果选择的话,他们宁愿不知道自己死亡的日期,甚至不知道快乐事件的未来日期。

这些都是故意无知的例子。苏格拉底可能会说,未经审查的生活是不值得生活的,霍布斯可能认为好奇心是人类的主要爱好,但许多我们最古老的故事实际上描述了知道太多的危险。从亚当和夏娃和知识树到普罗米修斯偷走了火的秘密,他们告诉我们现实生活的决策需要在选择知道和选择不选择之间达成微妙的平衡。

移动慢一点?硅谷文化庆祝快速实验,这可能不是我们想要的个人数据。弗里德里克LeGrang-CoueO/SutelStutscom

但是,如果一项技术不可预见地改变了这种平衡,那么我们如何决定何时保持无知呢?这个技术在这里:它被称为人工智能。

AI可以使用相对较少的数据找到模式和推断。例如,只有少数脸谱网喜欢预测你的个性、种族和性别。另一种计算机算法声称,它可以区分同性恋和异性恋男性81%的准确率,同性恋和异性恋女性71%的准确率,根据他们的照片单独。一种称为CAMAS(惩罚性罪犯管理分析替代处罚)的算法可以从青少年逮捕、家庭犯罪记录、教育、社会隔离和休闲活动等数据中预测犯罪累犯,其准确率为65%。

知识有时会破坏判断力,我们经常选择保持故意无知的反应。

在每一种情况下,结论的性质都可以代表与所使用的数据的性质背道而驰(即使一些结果的有效性继续争论)。这使得我们很难控制我们所知道的。我们也几乎没有任何规章来帮助我们保持无知:没有保护的“不知情的权利”。

这就创造了一种氛围,在脸谱网的旧座右铭中,我们倾向于“快速行动和破坏事物”,但是当谈到我们的私生活的细节时,我们真的想做的事情真的是破坏了吗?


G几十年来,政府官员和立法者都知道潘多拉的箱子有时最好是关闭的。至少有20世纪90年代以来,一直有关于保护个人无知权利的书籍的法律。例如,1997届欧洲人权与生物医学公约规定,“人人都有权知道任何关于他或她的健康状况的信息。但是,不应告知任何人的愿望。“同样,1995世界医学协会的《病人权利宣言》规定:“病人有权不被告知[医疗数据]对他/她明确的要求,除非需要保护他人的生命。”

然而,对人工智能的无知法则来说,这是一个截然不同的问题。尽管医疗数据受到严格监管,但人工智能所使用的数据往往掌握在臭名昭著的不受管制的盈利性技术部门手中。AI处理的数据类型也更广泛,因此任何相应的法律都需要更广泛的范围来理解无知的权利意味着什么。研究故意无知的心理有助于为人工智能设计无知的法律。但是,令人惊讶的是,这个话题一直被忽视作为严谨的科学探究的主题,也许是因为隐含的假设,故意回避信息是非理性的。

然而,最近心理学家Ralph Hertwig和法律学者Christoph Engel已经出版了一个广泛的分类动机故意无知。他们确定了两套动机,特别是在面对AI时需要无知。

第一组动机围绕公正和公平。简单地说,知识有时会破坏判断,我们常常选择保持故意无知的反应。例如,学术论文的同行评审通常是匿名的。大多数国家的保险公司在获知客户健康之前都不知道他们的健康状况,他们只知道一般的风险因素。这种类型的考虑与AI特别相关,因为人工智能可以产生高度的偏见信息。

第二个相关动机是情绪调节和后悔回避。故意的无知,Hertwig和恩格尔写的,可以帮助人们保持“珍爱的信仰”,并避免“精神不适,恐惧和认知失调”。故意无知的盛行率很高。大约90%的被调查的德国人想要避免负面情绪,这些负面情绪可能来自“对负面事件的预知,如死亡和离婚”,40到70%也不想知道正面事件,以帮助维持“惊喜和悬念的正面感觉”,例如,不知道未出生的孩子的性别。

我们已经把我们的数据放了很长时间,以至于我们忘记了它是我们的。

这些动机可以帮助我们理解在AI面前保护无知的必要性。例如,AI“Gaydar”算法似乎具有接近于零的潜在收益,但当涉及公平和公平时,潜在的巨大成本。AS经济学家“在同性恋者在社会上是不可接受的,或是非法的地方,这样的算法会对安全构成严重威胁。”同样,在NTeCallab当前正在开发的种族检测器的好处似乎与公正和公平的负面影响相比是苍白的。CAMAS累犯预测软件的使用比人类具有更高的准确度,但是,正如德雷斯和法里德所写的那样,“不像我们所希望的那样精确,特别是从被告的观点来看,他们的未来在于平衡。”预测个人预期寿命的算法,如Apple健康公司所开发的算法,不一定会使情绪调节变得更容易。

这些例子说明了识别个体动机无知的效用,并展示了知识和无知是多么复杂的问题,尤其是当涉及人工智能的时候。对于集体无知是有益的还是伦理上适当的问题,目前还没有现成的答案。理想的方法是单独考虑每个案例,进行风险收益分析。理想情况下,考虑到辩论的复杂性和其后果的权重,这种分析将是公开的,包括不同的利益相关者和专家意见,并考虑所有可能的未来结果,包括最坏情况的情景。

事实上,这是很多问题,在大多数情况下可能是不可行的。那么,我们如何处理粗略的笔画呢?


oNE方法是控制和限制我们允许机器从他们已经收集的数据中制造出的各种推理。我们可以“禁止”使用种族作为预测变量的司法算法,例如,或排除潜在的工作候选人的预测分析中的性别。但是这种方法存在一些问题。

首先,限制大公司使用的信息是昂贵的和技术上的困难。这将要求这些公司公开其算法,以及大型政府机构不断审计它们。此外,一旦收集了大量的数据集,就有很多方法可以用迂回的方式推断出“禁止的知识”。假设使用性别信息来预测学业成功被宣布为非法。使用变量“汽车拥有类型”和“喜爱音乐类型”作为性别的代理,进行二阶推理,并将预测保留在性别代理上是很简单的。尽管有公司的最佳意图,关于性别的推断甚至可能被意外地内置到算法中。这些二阶推论使得算法的审计更加艰巨。在分析中包含的变量越多,二阶推论就会发生的概率就越高。

保护无知权利的更激进和更有效的方法是首先防止数据被收集。例如,在2017的一项开创性行动中,德国通过了一项立法,禁止自驾车汽车根据种族、年龄和性别识别街道上的行人。这意味着,汽车将永远无法告知其驾驶决策,尤其是当事故不可避免的数据来自这些类别时,它需要采取的决定。

司机Ed:网站道德机器在机器将很快作出决定的情况下,使用我们自己选择的数据类型来测试人类的道德直觉。麻省理工学院

按照这种思路,欧盟在2018年5月生效的新通用数据保护条例(GDPR)规定,公司只允许收集和存储所需的最小数量的用户数据,以提供特定的、规定的服务,并获得客户对其数据将如何使用的同意。这种对数据捕获的限制也可以防止二阶推论。GDPR方法的一个重要限制是公司可以给自己提供非常广泛的目标。例如,现在关闭的剑桥分析公司明确的目标是评估你的个性,从技术上说,它备受争议的脸谱网数据集满足了GPDR的指导方针。类似地,GPDR关注数据和给定服务之间的对齐并不排除我们发现道德上有问题的数据类别,也不完全阻止公司从数据代理购买被排除的数据,只要用户同意,许多人同意共享他们的数据,即使是相对微薄的激励。研究人员发现,一些麻省理工学院的学生将分享他们的朋友的接触数据,一片比萨饼。显然,需要进一步的限制。但是有多少?

美国的活动家和程序员Richard Stallman给出了这样的答案:“有很多方法来使用数据来伤害人们,唯一安全的数据库是从来没有收集到的。”但是限制数据收集太严重会阻碍进步,损害我们从AI获得的好处。

谁来决定这些权衡?我们都应该自己做。


I大多数情况下,我们都在谈论你和我拥有的数据。我们不小心在不考虑后果的情况下为闪亮的应用程序放弃它。事实上,我们已经把我们的数据放了很长时间,以至于我们忘记了首先是我们的。把它拿回来让我们单独决定是否有一些东西是我们想要或不想知道的。将数据恢复到其合法所有者,我们巧妙地解决了许多我们所讨论的严峻挑战。它避免了需要开发通用的、有先见之明的数据指南。相反,数以百万计的个人会根据他们对是非的指导来指导自己的数据使用。我们可以实时地反应公司的数据的使用,根据他们的数据如何对待或惩罚公司。

计算机科学哲学家杰伦·拉尼尔提出了一个附加的、经济的论点,把数据放在人的手里。他说,我们应该都能从私人数据中获利,把它卖给大公司。这种方法的问题是双重的。首先,它混淆了数据使用和所有权的伦理。提供数据的意愿免费对于数据将被用来回答的问题的道德完整性是一个很好的试金石。一个少数群体中有多少人会自由地分发他们的数据来创造一个像Gaydar这样的面部识别应用程序?有多少人会同意这样做呢?另一方面,大多数人会乐意贡献他们的数据来找到治疗癌症的方法。第二,在个人数据上增加经济价值可能迫使人们分享他们的数据,使数据隐私成为富人的特权。

这并不是说单独行动就足够了。也需要社会机构的集体行动。即使只有一小部分的人口分享他们的敏感数据,结果可能是一个高的预测精度反对大多数。并不是所有人都意识到这一点。为了防止不必要的后果,我们需要更多的法律和公开辩论。

经济学家曾写道,世界上最有价值的资源不再是石油,而是数据。但数据与石油非常不同。数据是一种无限制的资源,它是个人所有的,它是最好的交换,没有任何交易性的经济价值。从石油中获取利润扼杀石油市场。作为第一步,从数据中获取利润为我们创造和维持伦理标准提供了必要的空间,这些伦理标准可以在人工智能的到来中存活下来,为管理集体无知铺平道路。换句话说,随着数据成为现代世界最有用的商品之一,它也需要成为最便宜的商品之一。


Christina Leuker是马克斯普朗克人类发展研究所的博士生。

沃特范登博斯是马克斯普朗克人类发展研究所的研究科学家。


推荐信

1。王,Y.Kosi斯基,M. Deep神经网络比人类更准确地检测面部图像的性取向。人格与社会心理学杂志 一百一十四,246—257(2018)。

2。德雷斯、J·法里德、H.预测累犯的准确性、公平性和限度。科学进展 ,EAAO55 80(2018)。

三。赫特温格,R和恩格尔,C·HOMO无知:故意选择不知道。心理科学透视 十一,359—37(2016)。

4。吉格伦泽,G和加西亚Realimo,R. Cassandra的遗憾:不想知道的心理。心理学评论 一百二十四,179—196(2017)。

5。Athey,S. Catalini,C,塔克,C.E.数字隐私悖论:小资金,小成本,闲聊。斯坦福大学商学院研究生论文17-14(2018)。


附加读数

斯托尔曼,一个激进的建议,以保持您的个人数据安全。监护人(2018)。

职员作家。世界上最有价值的资源不再是石油,而是数据。经济学家(2017)。


铅照片拼贴信用:Oliver Burston /盖蒂图片;皮克斯贝

参加讨论