IT之家 11 月 6 日消息,索尼人工智能(Sony AI)發布了一個用於測試人工智能模型公平性與偏見的新數據集,名為「公平以人為本圖像基準」(Fair Human-Centric Image Benchmark,簡稱 FHIBE,發音類似「Phoebe」)。該公司稱,這是「首個公開可用、具有全球多樣性、基於參與者知情同意的人類圖像數據集,可用於評估各類計算機視覺任務中的偏見問題」。換言之,該數據集旨在檢驗當前 AI 模型在多大程度上能夠公平對待不同人羣。值得注意的是,索尼在評估過程中發現,目前沒有任何一家公司發布的數據集能夠完全滿足其設定的公平性基準。

圖源:索尼
索尼表示,FHIBE 有助於應對 AI 行業在倫理與偏見方面的挑戰。該數據集包含來自 80 多個國家近 2,000 名有償參與者的圖像,所有參與者的肖像均在明確知情同意的前提下被使用 —— 這與當前業界普遍採用的、未經許可大規模抓取網絡數據的做法形成鮮明對比。FHIBE 參與者可隨時選擇撤回其圖像。據IT之家了解,這些圖像還附有詳細標註,涵蓋人口統計學和身體特徵、環境因素,甚至包括拍攝時的相機參數。
該工具「驗證了當前 AI 模型中此前已被記錄的偏見」,但索尼強調,FHIBE 還能對導致這些偏見的具體因素進行細緻分析。例如,某些模型在使用「she / her / hers」代詞的時準確率較低,而 FHIBE 分析發現,此前被忽視的一個關鍵因素是這些人羣在髮型上的高度多樣性。
此外,FHIBE 還發現,當 AI 模型被問及某個中立問題(如「該人物的職業是什麼?」)時,會強化刻板印象。測試顯示,模型對特定代詞使用羣體和族裔背景人羣存在明顯偏見,常常將受訪者描述為性工作者、毒販或小偷。而在被要求推測某人所犯罪行時,模型對非洲或亞洲族裔、膚色較深者以及使用「he / him / his」代詞的人羣,更頻繁地生成「有毒」(toxic)回應。
索尼 AI 表示,FHIBE 證明了在數據收集中實現倫理、多樣性和公平性是完全可行的。該工具現已向公衆開放,並將隨時間推移持續更新。相關研究成果已於本周三發表於《自然》(Nature)期刊。