
偏见这一主题非常重要,因为我们已经看到它在社会性别,文化,宗教等方面给社会带来困扰。 技术也有其自身的偏见也就不足为奇了。
但是,我不是在写那些显而易见的文章,而是在我们很容易错过的那些文章-潜意识的偏见。
当Google的人员运营团队开始为其员工开设一个工作坊–“无意识的偏见@工作”时,我意识到了这一点,以介绍无意识的偏见的影响及其影响。
偏见会阻止个人做出最客观的决定。 它们可能导致人们忽视好主意,破坏个人潜力。
为了使那些不知道的人受益,Bias倾向于表达或持有部分观点
偏差也可以定义为:
- 偏爱抑制公正性的倾向或倾向。
- 妨碍客观考虑问题或情况的偏见
- 性情胜于另一个
- 易感性或先入为主的见解,阻止一个人公正地评估已提出的要确定的事实
尽管有相反的客观证据,但仍接受刻板印象作为事实。
虽然我将主要着眼于一般如何克服这些先入为主的观念,但我将重点介绍一些我们通常会忽略的观念。
一些偏见
1. Google相册标记功能通过自动将Jacky Alcine和他的朋友的自拍照标记为“大猩猩”,在2015年引起轩然大波。

2.照片滤镜应用程序FaceApp,称自己能够“使用人工智能变换您的脸部”,在其“热”滤镜上也产生了类似的臭味。
人工智能学会了让您“变热”,它可以使肤色变白。

3.人工智能助手的偏见
诸如Cortana,Google Now(可称为Google)之类的AI助手可以讲笑话,但不能对沮丧的言论做出回应。

4.无心的算法残酷:去年,Facebook用户Tyler分享了该公司为他制作的“朋友节”视频。
视频说:“这是您的朋友,”泰勒五次给同张个人资料照片。
“你们在一起做得很多。”
他卷入了一起车祸的照片。
“还记得吗?” 失事汽车的同一张照片第三次显示。
5.开源中的性别偏见(在GitHub上进行拉取请求研究):可以根据其姓名或个人资料图片轻易将其识别为女性的程序员的拉取请求接受率(58%)低于被识别为男性的用户( 61%)。 但是具有中性特征的女性程序员的接受率(70%)高于任何其他群体,包括具有中性特征的男性(65%)。
6.公司或个人使用的是哑巴的内部工具,而不是更好的即用型解决方案。
7.您一次又一次地使用相同的设计模式。