資訊在沃

人工智能系統對男性角色和性別中性角色存在固有偏好

   發布時間:2024-01-02 17:39

【沃資訊】1月2日消息,IT之家報道,密歇根大學的一項最新研究揭示了大型語言模型(LLM)在社會和性別角色方面的偏見。研究結果顯示,AI在處理法律相關任務時存在性別偏見,相比較女性角色,中立或男性角色的工作效率更高。

該研究通過Flan-T5、LLaMA2和OPT-instruct這三個模型,追蹤了2457個問題,觀察不同性別角色的回答情況。研究人員納入了162種不同的社會角色,涵蓋了一系列社會關系和職業,并測量了每種角色對模型性能的影響。

研究發現,表現最好的角色是導師、合作伙伴、聊天機器人和人工智能語言模型。此外,在提示中指定受眾(如“您正在與一名消防員交談”)的效果最好,其次是角色提示。

這一發現對人工智能系統的開發者和用戶都有重要價值,用戶可以考慮使用LLM的社會背景,以提高LLM的有效性。同時,研究人員分析了50個分為男性、女性或中性的人際角色,發現中性詞和男性角色比女性角色的模型性能更高。

這一發現值得重點關注,表明這些人工智能系統對男性角色和性別中性角色的固有偏好高于女性角色。未來研究應進一步探討如何消除AI中的性別偏見,以實現更加公正和平等的人工智能系統。

 
 
更多>同類內容
全站最新
熱門內容