From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models 作者:Shangbin Feng, Chan Young Park, Yuhan Liu and Yulia Tsvetkov 机构:华盛顿大学、卡内基梅隆大学、西安交通大学 
语言模型在不同的数据源上进行预训练,包括新闻、论坛、书籍和在线百科全书等等。 这些数据中有很大一部分包含了一些观点和看法,这些观点和看法一方面颂扬民主和思想的多样性,另一方面又带有固有的社会偏见。 在这篇论文中,研究人员开发了新的方法: (1)沿着社会和经济轴测量在此类语料库上训练的LM中的政治偏见; (2)测量在有政治偏见的LM之上训练的下游NLP模型的公平性。研究人员专注于仇恨言论和错误信息检测,旨在通过经验量化预训练数据中的政治(社会、经济)偏见对高风险社会导向任务公平性的影响。 研究结果表明,预训练的LM确实具有政治倾向,这种倾向强化了预训练语料中存在的两极分化,将社会偏见传播到仇恨言论预测和错误信息检测中。 最后研究人员讨论了他们的发现对NLP研究的影响,并提出了减轻不公平的未来方向。
|