玉兰油发射活动提升不同的女程序员和战斗算法的偏见

对抗偏见隐藏在美丽算法,P&G-owned玉兰油周一发起了一项活动,配合国家编码。

的流行算法偏见比这更可悲的是令人惊讶的考虑到缺乏多样性在计算机科学领域特别在遏制职业更广泛。

“算法的影响是藏在眼皮底下,但很多人只是刚刚意识到它对我们的生活造成的影响,”斯蒂芬妮·赫德利说,玉兰油护肤副总裁在宝洁(Procter & Gamble)。

就在上周,Facebook发表公开道歉后,用户观看视频显示一个黑人自动提示问他们是否愿意“继续看视频关于灵长类动物。”

Facebook将错误归咎于不完美的人工智能为其推荐功能。

今年5月,Twitter被称为(当然,在Twitter上)使用照片预览算法常常作物黑人面孔从白人的照片。

作为回应,Twitter宣布开放的bug赏金比赛表面和根除其他例子的偏见image-cropping算法。研究人员发表。他们发现,该算法支持年轻的形象,细的白色女性被歧视的基础上的年龄,体重,种族和性别。

斯蒂芬妮·赫德利,玉兰油护肤的副总裁偏见常常是编码到算法的挑战是无意,但效果是一样的,特别是当谈到保持整体美的标准。

对抗偏见隐藏在美丽算法,玉兰油周一发起了一项运动,为了配合国家编码,和它有一个雄心勃勃的KPI:帮助发送至少1000年轻女性的颜色代码营地明年夏天与黑人女孩合作代码。

故意“我们需要更多的包容,因为它是创建代码的人谁将帮助引发系统性的改变,”赫德利说自己大学数学专业的人继续教高中数学开始前助理品牌经理在2003年宝洁。

“美”,赫德利说,“在编码器的眼睛。”

作为其# DecodetheBias活动的一部分,其中包括国家电视广告和印刷广告欢乐Buolamwini算法正义联盟的创始人,玉兰油也鼓励其他品牌和公司检查有偏见的假设可能藏身在他们使用的数据集计划自己的算法。

玉兰油本身与ORCAA咨询公司,帮助组织风险管理和审计算法,分析了玉兰油的皮肤顾问,一个基于网络的工具,它依赖于成千上万的上传selfies推荐皮肤护理产品。

与Buolamwini合作,ORCAA发现细微偏差的几个实例,玉兰油的皮肤顾问算法是现在努力纠正。例如,该算法更精确的为人们在年龄谱和最末端也稍微不那么准确的深色肤色的人。

“老实说,我们兴奋,”赫德利说。”,那是因为我们不知道这是发生在我们问问题和评估。”

那就是一切都开始说,赫德利——仅仅是充分意识到“人负责问问题。”

但公司还需要利用更多样的人才池,她说。明年夏天的1000多位女性毕业生的代码营地将填充未来一代的专业的电脑工程师。

“随着越来越多的妇女和有色妇女成为程序员,”赫德利说,“我们会得到更好的代码和代码更具包容性。”

喜欢这个内容吗?

注册今天AdExchanger成员爱游戏体育骗子,无限制地这样的文章,加上专有数据和研究,会议折扣,按需访问事件内容,和更多!

今天加入!

添加一个评论

XHTML:您可以使用这些标签:< a href = " " title = " " > <简写的标题= " " > <缩写标题= " " > < b > <引用引用= " " > <引用> <代码> < del datetime = " " > < em > <我> <问引用= " " > <年代> <罢工> <强>