转载

致程序员:算法为何带有偏见?

致程序员:算法为何带有偏见?

  现如今,由算法和人工智能驱动的科技越来越多地进入到我们生活,而现在,我们面临着一个相当讽刺的问题:这些程序的立场是非中立的吗?它们总是带有一些偏见吗?诚然,答案是肯定的。

  最近,的“流行话题”列表非常骚动,其反应出的对自由党的偏见昭然若揭。之后,美国政府要求 Facebook 给出一个官方的解释。本周,Facebook COO Sheryl Sandberg 表示 Facebook 将会开始训练员工,来辨别和控制他们的政治倾向。

  其实,Facebook 的做法正是 Kickstarter 的前数据执行官 Fred Benenson 所说的"数学洗脑”:我们让诸如 Facebook 的算法程序变得完全客观、完全中立,是因为算法核心基于数学。

  而现如今的算法之所以怀有偏见,很大程度上是因为很多程序员(特别是机器学习程序员)为男性。在最近《彭博社》发布的文章中,微软研究员 Margaret Mitchell 呼吁更多女性参与到编程中来。

  哈佛教授 Latanya Sweeney 表示:在一次关于谷歌 AdSense 广告的研究中,他在搜索了白人典型人名(如 Geoffrey, Jill, Emma)和黑人典型人名(如 DeShawn, Darnell, Jermaine),发现含有“逮捕(arrest)”这个字眼的词语广告时,出现的黑人人名超过 80%,但出现的白人人名只有不到 30%。

  Sweeney 担心谷歌的这种广告技术会带来种族偏见,让黑人在比赛、工作、约会等情况下比白人略逊一筹。

  同时,借贷和信用等领域一直以来被冠以种族偏见的帽子,因此必须在此敏感问题上分外小心。

  在线借贷公司 ZestFinance 在建立之初就认同这样一种思想:机器学习项目可以让那些被认为是“有价值的借贷者”的数量增多,从而会陷入借贷歧视的危险境地。而为了阻止这种情况发生,ZestFinance 已经建立了某种特定工具来测试结果。

  不过,这种情况的危险之处在于:这种不言而喻的偏见(不仅存在于算法程序中,还存在于其中的数据中)可以一不小心就让任何程序编程腹黑的偏见者。对于不能分别程序复杂性的用户来说,要弄清程序是否是公平的,是非常困难的。

  Benenson 在最近 Technical.ly Brooklyn 举行的问答大会上表示:“算法和数据驱动产品总是会反映其建造者的设计选择,如若程序员们本身带有偏见,那么编写出来的程序带有偏见就不足为奇了。”

  Via:MIT Technology Review

正文到此结束
Loading...