自动驾驶汽车很难发现深色皮肤的行人
- 自动驾驶汽车检测黑皮肤人的准确度低 5%。
- 发生这种情况是因为大多数对象检测算法大多是在包含白人图像的数据集上进行训练的。
机器学习模型已经开始在我们的日常生活中找到家。尤其是自动驾驶领域,在过去的十年里,已经从“有可能”变成了“现在可以商用”。
然而,近年来,自动化系统的这些进步引起了人们对自动驾驶汽车的很多担忧,而且关注的清单似乎越来越长。除了担心他们的安全和解决道路障碍的能力外,还需要担心自动驾驶汽车是否会伤害有色人种。
现在,佐治亚理工学院的研究人员进行了一项研究,他们得出的结论是,自动驾驶系统中使用的算法在检测黑皮肤行人时的准确度要低 5%。
某些人口群体的错误率高于其他人
该团队首先调查了最先进的对象检测模型的准确性,这些模型主要用于自动驾驶汽车。他们想了解这些模型如何准确地检测到来自不同人口群体的人。
他们分析了一个包含行人图片的海量数据集,并根据他们的肤色将人分开。然后,他们研究了这些模型准确识别出深肤色人群和浅肤色人群存在的频率。
参考:arXiv:1902.11097 |佐治亚理工学院
研究人员发现,平均而言,这些模型在检测黑皮肤群体时的准确度要低 5%。即使在调整了一些关键参数(例如行人经常被遮挡的视线和图片中的一天中的时间)之后,这种不一致仍然保持不变。
该研究仅考虑用于研究目的的模型,这些模型是在公开可用的数据集上训练的。它没有分析商用自动驾驶汽车实际使用的任何模型。然而,这并不意味着这些发现是无价的:像这样的研究提供了对真正缺陷和风险的深刻见解。
偏见/种族主义算法背后的原因
这不是第一次有人发布关于偏见算法的报告。去年,一项研究发现,由科技巨头(微软、IBM 和旷视科技)开发的 3 种人脸识别系统更容易错误识别深色皮肤的人的性别,而不是浅肤色的人。
图片来源:Iyad Rahwan
由于人工智能模型——尤其是机器学习和深度学习算法——从它们提供的训练数据集中学习,如果你不提供足够种类的数据,这些模型在部署在现实世界。
自动驾驶汽车也是如此:对象检测算法主要是在包含白人图像的数据集上进行训练的。此外,这些算法并没有重视从有限的数据集(深色肤色的人)中学习。
阅读:自动驾驶汽车的新 AI 可以预测行人运动
研究人员认为,这些模型可以通过包含种族多样化的示例并在训练期间更加强调有限示例来改进。
工业技术