这两年大家对“生成式AI”的期待,已经从“能写文画图”升级到“能替我做事”。但很多人忽略了一个更基础的问题:它到底在学什么?以及,为什么它经常在最不该出错的地方出错?
3月21日,《The Verge》发布了一篇对纪录片导演 Valerie Veatch 的采访,围绕新片《Ghost in the Machine》聊了一个刺耳但现实的主题:当你把世界上现成的数据喂给模型,偏见不会凭空消失,它只会以更“自动化”的方式回到输出里。
这条消息讲了什么
- Veatch 早期体验过生成式视频/图像工具,发现模型会在未明确提示的情况下产出带有种族主义、性别歧视的内容,或把“有色人种的自我照片”生成成更白的版本。
- 她把这些当作“严重缺陷”去反馈,但得到的回应并不积极,这促使她转向拍纪录片:追溯这类问题的成因。
- 《Ghost in the Machine》计划在 3 月 26–28 日通过 Kinema 线上放映,之后还会在 PBS 播出(时间未定)。
看懂这件事的 4 个关键点
- “垃圾进,垃圾出”只是表层解释。模型确实会吸收数据里的刻板印象,但更麻烦的是:很多系统会把“主流审美/主流身份”当作默认值,导致输出在不经意间把人“改得更符合某种模板”。
- 偏见不一定以“脏话”出现。更常见的是白化、去特征化:保留发型和穿着,但肤色、五官被悄悄推向一种更“通用”的脸。
- “AI”这个词会遮住责任边界。一旦一切都被叫作AI,就容易把问题归因成“技术自然如此”。现实里,它是数据、目标函数、过滤策略、产品指标共同作用的结果。
- 越是进入日常场景,越要盯住“默认值”。当生成式AI被塞进搜索、相机、办公、客服、招聘、内容分发时,默认值会悄悄变成社会共识的一部分。
为什么重要
很多人把生成式AI当作“创意工具”,但它正在变成“表达工具”和“身份工具”:你用它做头像、做简历照、做宣传图、做视频分身。只要它在“你是谁”这件事上输出了偏差,影响就不再是好不好看,而是被不被看见、被如何看待。
谁适合重点关注
- 普通用户:你用AI做图片/视频/头像时,留意它有没有把你的肤色、五官、体型往同一个方向“修正”。
- 内容创作者与品牌:用AI出海报、人物图时,要把“角色多样性”和“形象一致性”写进验收标准。
- 产品与运营:别只盯转化率,抽样看输出在不同人群上的差异,尤其是“默认人像/默认场景”。
一句话结尾
生成式AI能把制作门槛降下来,但也可能把偏见的“复制成本”降下来;越是方便的工具,越值得我们把它的默认值看清楚。
我会在 wuxing.name 持续更新「每天一条AI趋势」,尽量用更少的术语把新变化讲明白;如果你有想让我拆解的产品/新闻,欢迎在文末留言丢链接。
来源: