《血汗AI》的預言:你未來的老闆可能是一台機器

亞馬遜的案例所示,種族化與性別化的系統會影響個人使用的語言類型、行為模式,以及別人看待他們的方式,即使據稱是中立的演算法,在執行評估時亦是如此。因此,如果演算法只被訓練去看到履歷中提及的性格特質、具體技能與某些關鍵字的普遍性,依然可能產生歧視性的結果。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *