黑暗中的战斗:欧洲人如何反击流氓AI

自动化系统误入歧途,助长儿童性暴力,剥夺人们的社会福利,或阻止组织的在线存在。当他们的权利受到侵犯时,受影响的人往往感到无助,但有些人正在奋起斗争,而现行法律却未能保护受害者。

故事主角的插图。上图:Camille Lextray,Jerzy Afanasjew。底部:Anastasia Dedyukhina、Miriam Al-Adib、Soizic Pénicaud。
莱奥·韦里埃
尼古拉斯·凯泽·布里尔
新闻主管(休育儿假)

Miriam Al Adib是一名西班牙妇科医生,居住在Almendralejo。去年9月的一天,她发现自己十几岁的女儿陷入了困境。她和其他同学的裸照在学校的WhatsApp小组中流传。照片是假的,她说。学生们使用人工智能工具生成了它们。

阿迪布感到女儿的焦虑,但立即知道该怎么办。她在Instagram上发布了一段视频,报告了发生的事情,并要求受害者站出来。几个小时后,许多其他母亲给她发了短信,分享了她们女儿的经历。他们都去了警察局,男孩们停止了制造假裸体。

十多年来,Al-Adib一直致力于提高人们对儿童性暴力的认识,包括在线和离线。她知道如何应对这种攻击。她说,尽管如此,她还是感到被那些本应防止如此残忍地使用人工智能的机构忽视了。如今,随着阿尔门德拉约的骚乱平息,允许男生制作假裸体的应用程序在整个欧洲学校仍然可用,而且可能正在使用。

我们采访了那些决定采取行动反对AI导致的不公正行为的人。他们都解释了纠正侵权行为并产生影响的难度。欧洲立法中规定的权利很少对个人强制执行。

“算法的错误”

当Soizic Pénicaud开始使用法国福利管理系统的算法时,她为与受益人密切接触的人组织了培训。有一次,这样的案例工作者告诉她,她给那些在请求处理系统上有问题的人的唯一建议是“你无能为力,这是算法的错。”佩尼科德,一位数字权利研究人员,对此感到惊讶。她不仅知道算法系统可以承担责任,而且知道如何做到这一点。

她与几个民间社会组织一起向福利机构提出了信息自由请求。2023年11月,她终于获得了算法的细节。统计分析表明,该系统存在许多缺陷。特别是,它认为残疾人、单身母亲和一般较贫穷的人都有潜在的欺诈风险,在许多情况下导致福利的自动中止和“机器人债务”的产生

佩尼科德的胜利是喜忧参半。即使正如许多人所怀疑的那样,它证明了福利控制是歧视性的,但监管机构和政界人士现在还没有权衡如何利用这种算法。从更深层次上讲,这个法国故事在许多方面重复了荷兰和波兰福利管理服务受到震动的几起丑闻。在那里,也发生了这样的情况:设计拙劣的制度和针对被视为不值得社会团结的人们的意识形态导致数千人失去了法律规定的收入。在那里,由于研究人员和活动家的努力,问题也被揭示了。

公开道歉

在巴黎以东近2000公里的地方,另一个自动化系统破坏了波兰研究员杰日·阿法纳斯朱(Jerzy Afanasjew)的职业生涯。他是毒品政策社会倡议(SIN,波兰首字母缩写)的董事会成员,该倡议是一个非营利组织,旨在促进青少年减少危害。2018年的一天,SIN注意到一些Facebook帖子已被立即从其官方页面删除。几周后,它变成了一个完整的页面,然后变成了一个Instagram账户。据脸书称,这些内容违反了他们的“社区标准”,即禁止销售非法精神活性物质。但事实是,SIN并不销售药物,而是告知他们。

这对Afanasjew来说是一个沉重的打击。鉴于脸书(现为Meta)的准垄断地位,SIN失去了主要的沟通渠道,也失去了目标受众。几个月内,波兰人试图降低感染或服药过量的风险,他们收到的问题数量从每天几次下降到了零星。这更让人恼火,因为人们利用Meta的产品来实际销售药物,对巨人的算法几乎无所畏惧。为了避免自动检测,他们只是简单地使用轻量级的代码词,例如大麻的“绿色袜子”。

但阿法纳斯朱并没有被吓倒。他与一家数字版权组织一起起诉了Facebook。不是根据合同法(毕竟,公司有权决定其“社区准则”),而是根据波兰民法中保护组织声誉的法律规定。Afanasjew辩称,Facebook单枪匹马删除了SIN的在线形象,玷污了他们的好名声。他要求公开道歉。最终裁决预计将于2024年3月作出。

无处可去

那些试图保护自己孩子的欧洲人,或者被福利机构的欺诈检测算法或垄断社交网络的自动追随者不公平地作为攻击目标的欧洲人,几乎没有什么可以反击的选择,如果他们是独自一人的话,几乎没有选择。Al-Adib、Pénicaud和Afanasjew并不是单独行动的。陪同他们的还有专门的民间社会组织,他们提供法律咨询和后勤支持。

我们采访过的大多数人都说,他们第一次通过官方渠道提出投诉,但都是徒劳的。Afanasjew和SIN团队确实点击了Facebook的按钮,对自动决定提出质疑。他们从来没有向人类解释过减少危害与销售毒品是不一样的。

甚至公共当局也很少提供帮助。一位法国工程师发现,招聘中使用的软件可以自动共享黑名单,这可能导致一些人的申请永远不会被人审查。多年来,他试图提醒数据保护机构和平等机构。他收到了回执,仅此而已。

在某些情况下,当局确实作出了回应,但为时已晚。2021年,Anastasia Dedyukhina向西班牙数据保护机构通报了在巴塞罗那举行的移动世界大会,该大会约有20000名与会者,非法使用人脸识别。花了两年时间,但当局最终对组织者罚款20万欧元。

尽管Dedyukhina是一位经验丰富的公众演讲者,并且了解隐私法,但她仍然不得不依靠一位专门研究人工智能监管的朋友的帮助来提出投诉。她说:“我对《通用数据保护条例》是如何运作的有了一些了解。我知道如何询问关于你的自动决策。”。但她觉得自己需要法律专业人士的支持才能行使自己的权利。

害怕报复

欧洲面临的障碍不仅仅是缺乏对自动化系统提出投诉的便捷途径。国营系统的强大和不可避免,垄断的私营公司也常常如此。许多人担心采取任何行动都会导致报复。

法国福利制度的受益人可以合法地要求提供他们所遵循的算法的详细信息。但我们采访过的几位人士表示,他们不会利用这项权利,以免引起有关当局的额外审查。这种担心可能并非没有理由,因为法律请求是由监督福利支出的人处理的。

在波兰SIN,Afanasjew说,很少有组织表示支持他们的案例,尤其是在脸书上。他们的活动性质和当时波兰的政治气候(该国在2023年底之前一直由法律与正义右翼政党统治)可能解释了这种沉默。但Afanasjew确信,很少有人愿意冒激怒Facebook的风险,因为他们不想成为攻击目标。

当机构不提供维护其合法权利的手段时,要求尊重这些权利需要勇气。Dedyukhina说:“当人们接受现状时,他们会让自己的权利被剥夺。”。

技术框架

这些功率不平衡导致人们很少能投诉自动化系统。除了缺乏去处和对报复的恐惧之外,第三个不太明显的困难阻碍了他们前进的道路:人工智能的技术本质使许多人对其社会后果视而不见。

在法国,佩尼科德最初认识的许多人告诉她:“这是关于技术的,我不明白。”她感觉到,非技术专家的人自己也没有资格审查算法系统。这也是科学与公共组织Medialab的研究员Pauline Gourlet的经历。她在Shaping AI项目中工作,专门研究围绕AI的讨论。她回忆道,简单地说一个系统中的“偏见”,马上就变成了一个技术问题,这让任何非技术人员都看不到深度。

与Pénicaud合作的Valérie Pras说,她花了很多时间解释说,如果将算法分解成小部分,就可以对其进行检查。她说:“我们剖析了一切,以便能够解释计算机系统干预的程度。”。这项艰苦的工作是克服许多人在面对自动化系统时感到的无助感所需的第一步。

不仅仅是软件。Gourlet的同事、博士生Maud Barret补充道,社会和政治力量至少与技术同等重要。她说:“当你看到一个具体的问题(例如福利系统中的欺诈检测)时,你会意识到问题本身并不是技术问题,而是关于如何改变社会服务的提供方式。”。

反对炒作

在关于数十亿美元押注于下一个AI冠军的新闻中,很少听到这样的声音。人工智能初创公司的高管们更喜欢接受一种技术上的对话,在这种对话中,拟人化的软件即使不是神化的,也往往是万能的。另一方面,Pénicaud、Afanasjew和其他人所反对的不公正要求解构技术和社会学组成部分中的算法系统。我们必须仔细研究细节,以准确确定哪里出了问题,并找到具体的法律或政治手段进行干预。但在许多人的心目中,类神实体的概念不允许进行细致的审查。

尽管无数欧洲人有勇气和毅力对抗流氓人工智能,但他们的努力对数十亿欧元科技公司的通信计划几乎没有任何影响。9月,欧盟委员会主席谈到了“人工智能灭绝的风险”,这是一个毫无事实根据的行业所鼓吹的话题。许多学者认为,这种长期风险情景主要是为了分散人们对人工智能实际风险的注意力。如今,这些风险已经造成了数千人(如果不是数百万人)的损失,甚至使他们背负债务,使他们的在线存在消失,或使他们受到严密的生物特征监测网络的影响,从而使他们的生活偏离正轨。

但阿迪布、阿法纳斯朱和其他人的战斗可能会蔓延开来。Dedyukhina说:“我有很多人接近我,说他们想做同样的事(抱怨毫无根据地使用面部识别技术)。”。“当你打开这扇小门时,实际上是在允许其他人也这样做。”

奈亚拉·贝利奥(她/她)

新闻主管

Naiara Bellio涵盖了隐私、自动决策系统和数字权利等主题。在加入AlgorithmWatch之前,她负责协调马尔蒂塔埃斯该基金会致力于解决与人们数字生活相关的虚假信息问题,并领导有关监视和数据保护的国际研究。她还在马德里和阿根廷的Agencia EFE工作elDiario.es公司她与Fair Trials和AlgoRace等组织合作,研究政府对算法系统的使用。

马蒂尔德·萨利欧

前算法责任报告研究员

马蒂尔德是一位专门研究数字问题的法国记者。她毕业于巴黎科学院,曾为《卫报》、《RFI》、《20分钟》、《Les Inrocks》、《Next INpact》等杂志工作过。2023年,她出版了这本书Technoféminime,评论le numérique acceleve les inégalités(《技术经济学,数字技术如何加剧不平等》)。

注册我们的社区新闻稿

有关更多详细信息,请参阅我们的隐私政策.