性别偏见在人工智能中的表现: ‘所有女性都在哪里?

人工智能领域的性别差距

重点摘要

Yennie Jun最近的实验表明,人工智能(AI)和机器学习(ML)模型在历史人物展示上存在性别偏见:女性历史人物的出现频率远低于男性。随着AI技术的日益普及,尤其是ChatGPT的推出,很大一部分人开始关注这些技术中的性别歧视及全球AI职业中的性别不平等。在AI角色中女性的缺乏影响了技术的设计与决策过程,这可能导致不平等的后果。

实验结果引发的担忧

YennieJun,一位白天作为机器学习工程师,夜间则撰写AI内容的博主,最近进行的一项实验令她感到担忧。她询问两个大型语言模型(LLMs)对历史上最重要人物的看法,结果显示,尽管重复了十种不同语言的提问,一些女性名字如居里夫人或克利奥帕特拉却只有少量出现,而男性名字如甘地和耶稣则频繁出现。Jun在她的中指出:“我最想知道的是:所有女性都去哪儿了?”

Jun进一步指出,即使询问使用俄语、韩语和中文等多种语言,这些历史人物仍然主要是男性。她实验涉及的两个LLM——Anthropic和OpenAI均呈现出这一现象。

“这令人担忧,因为LLMs反映了社会和训练文献中已存在的偏见。它们不仅延续这些偏见,甚至可能以新方式加剧这些问题。”Jun说,
“尽管历史书籍也反映了这些偏见,但LLMs固化了只重要的男性历史人物的神话。”

AI技术中的性别不平等

在过去一年,尤其是OpenAI的ChatGPT面向大众推出后,越来越多的人开始质疑AI技术中的性别偏见和专业AI角色中的性别不平等。经济合作与发展组织(OECD)的人工智能经济学家兼政策分析师CelineCaira表示,尽管AI被视为推动经济赋权的强大工具,但如果不充分解决代表性、偏见和歧视问题,则可能对性别平等造成负面影响。

“OECD国家早在2019年就意识到这些风险,采用了OECD
AI原则,这是首个政府间的AI标准。”Caira表示,“这些原则推动使用创新和可信赖的AI,尊重人权,包括性别平等和民主价值观。”

Caira指出,AI生成的内容可能会导致假新闻、深伪视频等问题,缺乏适当的监管措施,可能加剧性别误导和不实信息的风险。

AI领域的决策权缺失

Jun观察到,AI正在成为一个男性主导的“淘金热”领域,类似于以往的加密货币和区块链热潮。她认为,AI领域的创业者大多数是男性,缺乏女性参与会导致她们在决策过程中被排除,从而影响AI技术的构建、开发和应用。

“如果AI角色和权力位置中缺乏女性,那么决策者就会错过多样化的视角,这可能导致设计缺陷,从而带来负面影响。”Christina
Liaghati,MITRE的人工智能战略执行与运营经理说道。

Liaghati指出,缺乏女性参与的AI安全领域存在潜在漏洞,缺乏多样化视角可能导致系统的灾难性失败。她强调,文化和技术的多样性是预防系统部署失败的重要因素。

解决AI性别差距的挑战

Caira提到,全球约四分之一的AI专业人士是女性,而在许多国家,女性仍然在培训和技能获取上面临障碍。尤其在OECD国家,年轻男性的编程技能远超年轻女性。2019年,全球AI公司的女性C-
suite领导者仅占18%。到2022年,只有四分之一的AI研究者是女性。

“我们必须让女性参与这个领域,尤其是在中学阶段。”Liaghati说,“这将帮助我们实现更多的性别多样性。”

Caira的观察则是,对数字技能和AI特定技能发展的政策和方案的关注正在不断增加,“各

Leave a Reply

Your email address will not be published. Required fields are marked *