根据7月14日的Kuai技术,现在可以说AI影响了我们生活的各个方面。这项新研究提出了有关AI中立性的严重问题。由德国Würzburg-Schweirnfoot(THWS)大学的人工和机器人情报教授Ivan Yamshchikov领导的研究团队测试了五个主要型号,包括Chatgpt。我们发现,大型传统语言模型在就业狩猎建议中具有重大的性别偏见。研究方法也非常简单,团队在教育,工作经验和职位信息方面创建了多个完全相同的招聘资料组。唯一的区别是性别。结果表明,AI系统建议就业搜索引擎比男性低得多。例如,Chatgpt O3型号建议$ 280,000的就业申请人,而有相同条件的男性建议他们提供40万美元。这是$的最大差异120,000。在法律和医学领域,这种性别差异更为明显,其次是商业管理和工程,并且仅在社会科学领域,这些模型才建议使用男性和女性方法。除工资提示外,AI模型还提供了有关职业选择,建立个人行为目标和建议的基于性别的建议,并且没有积极地表明独特的偏见。研究人员强调,仅凭技术修改就不足以解决问题,他们寻求明确的道德标准,独立的审查机制和更大的发展透明度。 [本文的结尾]如果您需要重印,请务必向我们展示您的资源:Kuai技术编辑:Blancoand Black