Skip to content Skip to footer

人工智能盔甲中的中国

image-20231126170824868

纪录片《编码偏见》深入探讨了围绕面部识别软件和人工智能应用的一些问题。这部纪录片最重要的部分之一围绕着麻省理工学院媒体实验室研究员乔伊·布兰维尼(Joy Buolamwini)发现面部识别软件由于肤色较深而无法识别她。这部纪录片探讨了面部识别技术的创造者(主要是白人和男性)与该技术的实际用户之间脱节的各个方面——新闻快讯:并非所有人都是白人和男性。这部纪录片中包含的信息在两年多后的今天仍然非常相关。

我从这部纪录片中学到的最重要的事情是,面部识别和人工智能在当今世界的使用是多么广泛。在伦敦,警方使用摄像头和软件帮助抓捕罪犯,但这导致无辜者被捕。这导致了一个名为“老大哥观察”的整个组织被创建,该组织一直在通过高级法律索赔来抵制大规模监控技术的使用。该组织还一直在帮助因隐藏摄像头而被错误地卷入交火的平民。我没有意识到这样的软件已经实现,在如此关键的位置使用它是令人惊讶的。

这部电影本身提出了一个非常明确的警告:人工智能及其使用的盔甲存在很大的缺口。所有这些加在一起非常令人信服,这个软件并不完美。对于技术被认为是“中立的”假设,有几种评论,但我们真正可以确定的唯一结果是,技术很容易采用创造它的人的思维过程。因此,除非一家公司花费时间和精力来粉饰偏见技术,否则人们不能不认为它是真正中立的。但是,我相信这是将来会完成的事情。有帮助的是,有些纪录片正在宣传我们的技术必须包容所有人,这正是“Coded Bias”设法做到的。