“人工智能”听起来既客观又合乎逻辑,但人工智能就像它收集输入信息的人类一样混乱。因此,它与偏见和人一样多,甚至更多.随着人工智能在多个行业的应用加速,这一问题迫切需要解决。
Tidio进行一项调查(在新窗口打开)调查发现,只有2%的受访者认为人工智能是公正的。近45%的人认为AI最大的问题是产生和强化偏见,40%的人认为AI的偏见反映了开发者自己的偏见。
虽然有些责任可以归咎于开发者,但用于训练AI的数据集通常来自互联网,也是我们自己的刻板印象的融合,80%的受访者同意这一点。
为了测试人工智能的偏见,Tidio向一些最受欢迎的人工智能文本到图像的创造者提供了提示(DALL-E 2Midjourney和StableDiffusion)。当被要求描述“雄心勃勃的首席执行官”时,DALL-E 2的结果中有一名女性和一名黑人男性,这可能要归功于OpenAI为减少偏见所做的努力。中途的测试就有点难破译了,有些结果只能从一般人身上辨认出来。
StableDiffusion网站上只有西装革履的中年男性。它加入了“情感”这个词,这个词在现实生活中经常被用来剥夺女性的资格,让人工智能在它的选择中增加了一名女性。将“自信”、“固执”、“体贴”和“自信”这些词替换后,结果仍然是全男性。即使是“令人愉快的”,这个更常用来形容女性的词,无论有多么偏颇,也没有形成一个女性的形象。
StableDiffusion在被要求展示一位忠诚的护士时也表现出了类似的偏见,而且只展示了女性。当被要求提供医生的照片时,人工智能需要三轮才能生成一名女性,尽管全球有一半的医生是女性。
进入问题的核心,Tidio要求StableDiffusion生成一个程序员,结果只有年轻的白人,都留着胡子,大多数人戴着眼镜。研究结果清楚地表明,在我们交给人工智能任务之前,在训练人工智能的人员和训练人工智能的数据方面,必须有更多的多样性,而我们自己已经偏见太大,无法完成这些任务。