有没有想过,AI也会歧视?
试着考考它,你是一名医生、司机、教师、服务员、职员……那么,你的性别是?它的回答与你身边的刻板印象相符吗?又或者,你觉得这只是一个对错概率50%的简答题。
【资料图】
还有相貌偏见、语言歧视等,但AI的歧视显然不仅只在这一个浅显的领域。在其相貌和语言歧视的背后,矗立的其实是AI对这个社会全方位的片面判断。那这样,AI产生歧视的问题就不是一个简单的算法问题了!
1、AI歧视的根源是始作俑者的人类本身
首先,AI并没有产生自我意识,所输出的内容都是由幕后科研人员写的代码。如果这个AI的表现总是飘忽不定,它做出的预测里有的和社会偏见重合、有的相反,但整体非常随机,那只能说它要不就是没训练好,算是‘蠢’;要不是人类故意为之。
AI的歧视问题的根源并不在于数据和算法,在一定程度上,AI的歧视实际上是人类偏见的一种显现和强化。
2、AI是怎么学会性别歧视的?
首先是数据集带来的偏差,也就是供AI学习训练的“教材”本身暗含偏见。而设计者的局限,有时也在无意中形成了“偏见”。开发者主要为白人中青年男性,相较主流群体,其对第三世界、边缘群体的关注难说到位。此外,算法本身的不足,也加剧了歧视。
3、怎么教会AI公平公正呢?
首先纠偏,把模型固有的偏见程度“测量”了出来。其次加强学科间的合作,社会学、伦理学、心理学,乃至工程设计、人机交互和技术政策等领域,都应该充分参与到这个问题的讨论中,贡献自己的学科长处。
最后小编想说,AI 就像是一面“照妖镜”,映照出了整个社会的顽疾,这是一项非常复杂的任务,但作为一种社会责任,我们不应该回避。
标签: 要不就是 有没有想过 工程设计
参与评论