科罗拉多大学博尔德分校进行的一项研究表明,人工智能在识别非同性恋者方面有多糟糕。
认证机构在承认少数民族方面令人担忧的问题越来越有据可查,但这项新研究是第一项评估性别分类的研究。
AI系统根据人们能“看到”的东西进行分类,并且经常使用刻板印象(例如,男人没有长发,女人没有胡子)。
性别有很多种:例如,脸书为用户提供了大约71种选择。也许期望太高,不能指望AI对每个人都进行准确的分类,但研究人员发现了一些错误的分类,可能会带来严重的麻烦。
参与这项研究的研究人员摩根克劳斯谢尔曼被确定为男性。下图中,左边微软的AI正确的将他识别为男性,而右边IBM的AI将他识别为女性:
舒尔曼说,在测试他的照片时,尽管他被确定为“规范”性别,但他仍然被错误地分类了大约一半。
只要分类大致正确,就不会造成太大的麻烦。但是,想象一下,一个人花了很多年的时间感觉自己是错误的性别,在过渡时期可能会面临欺凌和骚扰,甚至接受手术和/或激素治疗,然后AI把他归类为出生时的性别。
舍尔曼和他的团队测试了10种现有的面部分析和图像标记服务。如您所见,目前,大多数服务都坚持尝试确定cis-性别:
平均来说,面部分析系统在变性女性的图像上表现最好,在变性男性的图像上表现最差。
以下是按性别分类的每项服务的结果:
时尚潮流随着时间发展。发型尤其会经历多个阶段。男性在某些时期会选择长发(比如白蛇、枪炮玫瑰、史密斯飞船等70/80年代的乐队),但如今,像露丝贝尔这样成功的女模特也喜欢和男性交往。
大约十年后,男人甚至可以刮胡子,而女人会留胡子。现在,在图像中训练的AI会试图适应和分类这种变化,这带来了另一个问题。
通常有很多问题,但没有解决办法,但有。通过社会歧视、不平等和其他因素,像男女同性恋、双性恋和变性者这样的群体已经面临精神健康不佳的高风险。自动化这些问题将会带来灾难性的后果。