AI能帮助我们看清自身的偏见吗?
(2025-09-21 14:17:23)
标签:
365 |
AI能帮助我们看清自身的偏见吗?
玛蒂尔达·塔西纳里/文
雷曜瑜、乔小飞、刘梓睿、林依辰、于瑭、张茗惠、李楚、林轩宇、侯宇欣、陈泳琪、李欣桐、倪肖博文、孙镜淼、郭睿洁、吴彤雨风、余名洋、温陌冉、高禾禾、王鹏翰、郎子瑶、杨悦、徐可人、叶子瑶、秦禛涵、徐艺轩、赵佳欣、许善铭、彭策、李彦燃、马贺、赵莹莹、何歆玥、韩真、隋昕诺、姜楚俏、熊远、雷雳译
我们总喜欢认为我们能够分辨什么是真实的。我们相信我们的眼睛能够区分真正的人脸和数字生成的面孔、照片和伪造图像。但是,当我们不能区分什么是真实的时候,又会发生什么呢?
在我最近的研究中,通过AI生成的面部形象探讨了如何识别出最普遍但最不可察的偏见之一:体重偏见。在这个过程中,研究还揭示了一些更为本质的东西。
当我们注视一张面孔时,我们不只是看它,更是对它做出评判(往往是在不知道的情况下进行的)。询问人们对他人的主观感受是容易的,但测量他们不愿意或者不能承认的潜意识就比较困难了。因此,研究者们经常使用内隐联想测验(IAT)等工具,通过追踪人们对特定特征和特定群体关联的速度,来揭示更深层的偏见。研究者会向参与者展示一张面孔,让他们迅速给这张面孔贴上“好”“坏”“聪明”“懒惰”的标签,他们的反应时长就能够暴露潜意识中的真实想法(即隐藏的态度倾向或偏见)。
但是这个研究方法有个前提:IAT中使用的图片要足够好,才能够保证方法的有效。
在过去,使用IAT测量对于体重的偏见时,通常使用一些低质量的、单一的照片。这些照片往往颗粒感明显、光线不协调,或者面部特征夸张。这些缺陷为实验引入了噪音——比如偏见可能源自照片质量、种族、年龄甚至是面部表情而非体重本身。对于研究隐形偏见时,这种干扰是致命的。
我们的策略很简单:利用生成式AI生成了48张标准化肖像,每张都经过了构图和标准化处理,呈现了一个标准体重或肥胖的个体,并在光线、姿势、背景和表情上保持高度一致。每张面孔都被超过200名参与者从照片真实性、能力、看起来这个人是否超重等维度进行评价。
结果发现:尽管完全由AI生成,这些面孔却有着高度可信性。基本上一半的时间,参与者会把AI生成的图片当作是真实的图片。这一事实意味着,研究者现在可以设计兼具真实性和标准化的刺激材料,从而去除传统刺激导致的视觉“噪音”。但是,这只是表层发现。
更深层的发现是参与者如何对面孔做出反应。数据显示,对体重的判断和对能力、吸引力的评价呈现较强负相关。简言之,如果一个人看起来更重,那么他们也会更容易被认为能力不足、吸引力不够。即使剥离了具体的情境线索和行为信息,单单是体重就能引发严苛的、下意识的评判。更糟糕的是,肥胖的脸往往被认为是不真实的。我们不仅对肥胖体型有着隐形偏见,甚至认为现实中这样的体型不存在。
AI生成的面孔在偏见研究中的价值显而易见:可控性、多样性和可复现性。我们研究中使用的图像刺激包括了多种族、年龄和性别。但是AI本身也并非毫无偏见。
越来越多的人认识到生成式模型会继承(甚至放大)训练数据中所存在的偏见。大多数训练数据都充满了理想化的、苗条的和匀称的面孔。让算法生成一个肥胖个体,它要么可能套用刻板印象、进行怪异夸张的呈现,要么干脆生成失败。真实感让AI生成的面孔具备研究价值,但也让这些面孔更容易受到算法偏见这只“看不见的手”的影响。生成式模型固然强大,但目前尚不能完全放任其自动化输出。
如果你仍然认为AI生成的面孔是一种技术猎奇,不妨再重新审视。当以负责任的方式运用这项技术时,它可以创造前所未有的东西:一面清晰的、可复现的、高保真的镜子,不仅可以照出我们看到了什么人,更能照见我们是如何看待他们的。
这或许是AI带给我们的最意想不到的礼物:它不仅没有取代人类的判断,相反,它揭示了我们的判断,并赋予了我们改善判断能力的工具。
资料来源:
https://www.psychologytoday.com/us/blog/vrtual-societies/202509/can-ai-help-us-see-our-own-bias
(该文翻译发布得到了原文作者授权)