進入內容區塊

臺中市政府警察局-和平分局

:::
  • FB
  • google
  • line
  • 友善列印
  • 字級設定:

性別主流化

中央內容區塊
和平分局 人事室
 案例專區 108-02-27
性別宣導-亞馬遜用 AI 評分履歷,看到女性就扣分是怎麼回事?
  • 詳細內容
    本次宣導內容來自〈科技報橘〉
    本次宣導摘錄如下:

    篩簡歷是很多  HR 的核心工作之一,對於亞馬遜這樣的大公司來講,不僅崗位多,投遞同一個崗位的求職者可能也非常多,於是,無窮無盡的瀏覽簡歷就成了  HR 的日常。而且,同一個崗位收到的簡歷里,總有一些達不到用人標準的、「文不對題」的簡歷,即使是適合的人,也會分出三六九等,有人很優秀,也有人比優秀的人更優秀。從求職者之中挑選最合適的人,也是讓  HR 們頭疼的一件事。
    那能不能找一個  AI,來自動幫 HR 們篩簡歷呢?一個好好的 AI,怎麼成長過程中就自動學會了性別歧視這種壞毛病?美國知名科技公司技術崗員工性別比路透社整理了自  2017 年起這些公司公佈的數據,從中可以看出,像谷歌、蘋果、微軟、 Facebook 這些公司,整體上男性佔了 2/3,而單獨挑出技術崗位,男性比例則達到了將近 4/5。要 AI 不歧視女性很難,因為任何社會數據都包含性別歧視 不過,數據量大小並不意味著少數數據就會被歧視,相信亞馬遜的  AI 也不會傻到只選取簡歷數據中大多數人的共同特點,那樣豈不是錯過了少數天才?在  Hacker News 和  Reddit 的評論區,一些更懂技術的網友把矛頭對準了數據體現的亞馬遜在招聘中現存的性別歧視問題。從術上講,可以說這個人工智慧是成功的,因為它模仿了亞馬遜當前的招聘狀態。並給出了背後的邏輯。機器學習過程不會引入任何偏差,但訓練數據中存在的任何偏差都將在算法中忠實地展現出來。也就是說, AI 自己本身是一個天真無邪的「幼兒」,它不會自主的學會偏見和歧視,但如果給「幼兒」上課的「老師」亞馬遜的招聘數據自身帶了偏見,那麼這些偏見就會「言傳身教」給無辜的 AI。或者說, AI 是從人類社會中,學會了人類的偏見和歧視。

    我們不想讓  AI 歧視女性,但這絕非易事,因為  AI 無法忽視它所學習的人類社會對女性的歧視。這絕對是一個難題,不僅僅是技術上的難題,更是哲學層面上的難題。
  • 瀏覽人次:562人
  • 更新日期:108-04-11