商周

啟動成功關鍵,隨時掌握商周.com最新資訊

提供第一手新聞解析、財經趨勢、專屬活動

已加入收藏
已取消收藏
熱搜內容
現正閱讀
人臉辨識也會「重男輕女」?從FB和Amazon數據看這個新科技盲點
畫重點
段落筆記
新增筆記
「請稍等」英文別直接中翻英說please wait a minute!一次掌握,常用的電話對談英文
0
/500
不公開分類 公開分類
儲存

國際

人臉辨識也會「重男輕女」?從FB和Amazon數據看這個新科技盲點

圖為示意圖。 (來源:Dreamstime)
撰文者:全媒派
網民肥皂箱 2019.11.12
摘要

1. 在Facebook新聞圖像中,男性比女性更為突顯;在兩人或更多人的群像中,男性往往比女性多。

2. 機器學習工具產生更難以被人理解和提前預測到的系統性偏差。

皮尤研究中心(Pew Research Center)的一項最新研究發現,Facebook的新聞圖片中,男性出現的頻率是女性的2倍,且大部分的圖片是關於男性的。(編按:皮尤研究中心是美國的一間獨立性民調機構和智庫機構。)

考慮到當下有43%的美國成年公民主要通過Facebook獲取新聞資訊,皮尤研究中心使用機器視覺,測試了2018年4月至6月期間,17個全國性新聞媒體在Facebook上所發布新聞圖片的性別比例情況。測試演算法最終識別出了53067人,其中女性佔33%,男性佔67%,差距懸殊。但在現實生活中,美國人口的性別比例大致是均衡的。

那麼,是誰在「扭曲」兩性?

廣告

本期全媒派綜合皮尤研究中心,以及MIT媒體實驗室科學家Joy Buolamwini的研究發現,走近人臉識別下兩性的比例失衡現象,一起探究:為何有時候,演算法眼中的你處在可男可女的模糊地帶?進一步講,性別之外還有哪些偏見?為了應對這種狀況,我們可以做些什麼?

人臉識別下的性別失衡


皮尤的這份報告指出,在Facebook上不同類型的新聞報導中,女性在圖片中的「在場」情況始終低於男性。在與經濟有關的貼文中,只有9%的圖片為純女性內容,與此形成鮮明對比的是,純男性圖像占到了69%。女性在娛樂新聞圖片中擁有更多展示機會,但總體上仍低於男性。

搶先看
一張「拯救窮忙司機」圖,如何衝出大車隊營收、EPS新高?

你也許會為女性身影的稀少而感到疑惑,這在一定程度上和更大的社會現實相關。比如,在關於職業足球隊的新聞報導中,識別出的圖像大多都是男性;在針對美國參眾兩院(女性佔比為25%)的報導中,識別出的女性面孔當然要比男性少得多。

拋開這些顆粒度更小的細節不談,這份研究仍然揭示了一些值得警覺的現狀:在Facebook新聞圖像中,男性比女性更為突顯;在兩人或更多人的群像中,男性往往比女性多。同時,男性會佔據更大的視覺空間。

廣告

研究人員還測量了圖像中,女性面部與男性面部的大小情況(目前的技術只能捕捉人臉的大小情況,忽略了頭髮、珠寶和頭飾等因素的影響)。結果顯示,男性面孔平均占到的圖像面積更大,這種差異導致圖像中男性平均面部尺寸,比女性大出了10%。在Facebook的圖像中,這表現為男性人物能給讀者帶來更大的視覺衝擊。

具體來看,在涉及經濟相關的貼文中,女性面孔的平均尺寸比男性小19%,但在娛樂相關的內容中,女性面孔的平均尺寸比男性大7%。

像面部識別這樣的機器視覺工具,正被越來越廣泛地應用在執法、廣告及其他領域,對性別的識別,是其基本功能之一。在現實生活中,識別你周圍人的性別再簡單不過,但是對於計算機而言,它的工作需要經歷怎樣的步驟?

計算機如何「看出」你的性別?


「在給演算法『餵入』成千上萬個圖像案例後,作為一個『成熟的演算法』,面部識別系統自己就能學會如何辨別男性和女性。」這種回答雖然可以解釋上文的疑問,但對於「黑箱」外的我們,可能並不容易理解這一學習過程。

為了更好地了解這一過程中的規則,皮尤研究中心進行了一個有趣的實驗,他們將自己中心工作人員的圖像上傳到機器視覺系統,並對圖像內容進行部分遮擋,希望從中尋得規律,找到是哪些面部區域會讓演算法做出或改變決策。

在這個「人機博弈」的交互挑戰中,你不妨也大膽猜測下,哪些部分影響了系統的判斷?

首先,輸入一張清晰的圖片到機器視覺系統,此時,不管是演算法還是你,都可以清楚地判斷出照片中人物的性別。接下來,照片中出現了若干方框,提示信息告訴你,「選中某一方框意味著,在圖片中遮擋隱藏該部分內容,你的選擇有可能影響性別判斷。」

最後,當你完成選擇後,圖片將呈現出能影響性別分類改變的所有區域。感興趣的讀者,可以登陸皮尤研究中心網站(傳送門),自己動手完成這個小實驗。

當你選中了畫面中紫色或者黃色的區域時,都會帶來識別系統的決策改變。性別多元化的當下,在現實生活中,性別的識別雖也不易,但皮尤通過這個實驗,更清楚地展示出,在演算法系統中,讓機器堅決肯定地說出被測試者的性別,實在太難了。

有時,導致模型識別發生改變的人臉部分,或許和我們預期的有很大的出入。比如,第四張圖中,遮住人們的臉部,會導致系統識別發生改變,但更多的時候,令演算法產生相反判斷的「干擾區域」,其實是臉部邊緣、髮根、嘴角等區域。

從這些實驗案例中,你也許還發現了,沒有一個統一、穩定的規律能夠對這一現象進行解釋。有時,遮住某個被測試的臉部中間會導致性別識別發生變化,但以同樣方式遮住另一個,並不一定會得到相同的結果。

機器學習的確可以極大地提高我們處理數據的效率,但與傳統的計算機程序不同,機器學習遵循一系列嚴格的步驟,它們的決策方式在很大程度上隱而不顯,並且高度依賴於用來訓練自身的數據。這些特點可能導致,機器學習工具產生更難以被人理解和提前預測到的系統性偏差。

從這個角度看,皮尤研究中心用一個簡化的實驗,展示了用於訓練演算法的數據是如何將隱藏的偏差、意外的錯誤引入到了系統結果中。研究人員表示,隨著演算法正在人類社會中發揮越來越重要的決策影響力,了解它們的局限、偏差具有重要意義。

「偏見」帶來了什麼?


最近,包括圖靈獎獲得者Yoshua Bengio在內的26位AI領域頂尖研究者,在一篇公開博文中要求亞馬遜立即停止向警方出售其人工智能服務Amazon Rekognition。亞馬遜雲計算部門前首席科學家Anima Anandkumar等人也加入了這一聯合呼籲。

此前,多倫多大學的研究人員Deborah Raji和麻省理工學院媒體實驗室的研究人員Joy Buolamwini撰寫了研究報告,指出亞馬遜的Rekognition在檢測圖像中膚色較深的女性性別時,要比判斷膚色較淺男性性別的錯誤率高得多。

該研究成果也得到了學者們的支持,但亞馬遜曾對兩人撰寫的這篇報告及研究方法提出過異議。

亞馬遜面部識別系統對不同膚色、性別的測試準確度

Joy Buolamwini主導了一個名為Gender Shades的AI研究項目,在研究了各個領先科技公司的面部識別系統後發現,所有系統在識別男性臉孔上表現更佳,所有系統在識別淺色臉孔上的準確率更高。深色皮膚女性的平均識別錯誤率高達35%,深色皮膚男性的為12%,淺色皮膚女性為7%,淺色皮膚男性的錯誤率不超過1%。

面部識別系統的「偏見」可能帶來什麼?

「不管其正確性如何,面部識別技術都可能被濫用,」Joy說道。準確或者不準確地使用面部識別技術對他人的身份、面孔、性別進行分析,都可能侵犯到他人的自由。比如,不準確的識別可能會使得無辜者蒙冤,受到執法人員的無理審查,這並不是假想的情況。

英國非盈利反監視攝像組織「老大哥觀察」(Big Brother Watch UK)曾發布一份報告,強調倫敦警察廳使用的面部識別技術,有超過90%的性別識別錯誤率。去年夏天,英國媒體報導了這樣一則新聞,一名年輕黑人男性因為面部識別技術失誤,被誤認為嫌犯而在眾目睽睽之下遭到警方搜身檢查。

一份被洩露的報告也顯示,IBM為執法機構提供了技術,能夠根據頭髮顏色、膚色和面部特徵等搜索視頻中的人物。這一消息,引發了人們對警方將利用該技術關注特定種族的擔憂。

為了減少搜索人臉所需的時間,執法部門正在大量使用性別分類。如果需匹配人臉的性別是已知的,通過簡單的二分法,就可以大量減少需要處理的潛在匹配數。性別分類正廣泛應用到警務活動中。當這些有偏差的識別系統被廣泛應用到社會生活中,就可能導致更糟糕的後果。

科學家Joy Buolamwini在TED上發表題為「How I'm fighting bias in algorithms」的演講,在TED演講中,Joy和大家分享了一個小故事:在同樣的光線條件下,面部識別系統只能檢測到淺膚色的參與者;只有戴上白色面具,才能檢測出深膚色的參與者。

「在人工智能工具確定人臉的身份或者辨別表情信息前,最基本的前提是,檢測出人臉。但是,面部識別系統在檢測黑皮膚個體上,屢次失敗。我只能安慰自己,演算法不是種族主義者,是自己的臉太黑了。」Joy說道。

偏差來自哪裡?


如果對比開發者自己聲明的準確率和研究者們的研究結論,會發現一個有趣的事情:公司發布的數據和獨立第三方的外部準確率總是有所出入。那麼,是什麼導致了這一差異?

Joy提醒我們關注基準數據集的偏差。 「當我們討論面部分析技術的準確性時,是通過一系列圖像或者視頻測試來完成的。這些圖像數據構成了一個基準,但並不是所有的基準都是平等的。」

亞馬遜相關負責人表示,該公司使用了超過100萬張面孔數據作為基準來檢測產品的準確率。但是,不要被這個看起來很大的樣本迷惑了。 「因為我們不知道基準數據的詳細人口統計學數據。沒有這些信息,我們就無法判斷,是否在基準選擇上,就可能埋下了種族、性別或者膚色等偏見的可能。」

圖為示意圖。 (來源:Dreamstime)

不同系統對深膚色演員的識別數據不同


Facebook曾宣布,在名為Labeled Faces in the Wild(簡稱LFW,為世界上人臉識別最知名的數據集之一)的數據集測試中,自己面部識別系統的準確率高達97%。但當研究人員查看這個所謂的黃金標準數據集時,卻發現這個數據集中有近77%的男性,同時超過80%是白人。

為了在數據層就盡最大可能地剔除偏差,Joy提出,應當構建更具包容性的基準數據集。為了平衡基準數據,她列出了世界上婦女在議會所佔比例最高的10個國家,其中盧安達以超過60%的女性比例領先世界。

考慮到北歐國家和少數非洲國家具有典型代表性,Joy選定了3個非洲國家和3個北歐國家,通過選擇來自這些國家年輕、深膚色的個體數據來平衡數據集中的皮膚等類型。

正是基於這個更平衡的數據集,他們對亞馬遜、Kairos、IBM、Face++等公司的面部識別系統進行了重新評估。在2018年8月的研究中,他們發現,亞馬遜和Kairos在白人男性識別工作上表現優秀,但亞馬遜對有色人種的女性面孔識別的準確率很低,僅為68.6%。

Joy表示,現實世界中的臉部識別要比實驗檢測更為複雜和困難,他們建立的基準數據集也並非完全經受得住考驗,「但這就好比跑步比賽,在基準測試中的出色表現,起碼能保證你不會剛起步就摔倒。」

即便在同樣的基準下,面部識別系統的準確度數字可能也會發生變化。人工智能並不完美。在這種情況下,通過提供置信度給用戶更具體的判斷信息是一個有用的做法

面部識別技術已經被廣泛地應用在大規模監視、人工智能武器化和更多的執法環境中。但是,這項強大的技術是在沒有得到充分監督的情況下,快速發展著。

為了減少對面部識別技術的濫用,演算法正義聯盟(Algorithmic Justice League)和隱私與技術中心(Center on Privacy & Technology)發起了「安全臉部辨識技術宣言」(Safe Face Pledge)活動。在目前,包括亞馬遜在內的很多科技公司尚未加入這一承諾。

「根據我們的研究,貿然向執法部門或者政府機構出售面部識別系統將是不負責任的。」作為演算法正義聯盟創始人之一的Joy希望,在未來,更多的機構能加入到「安全臉部辨識技術宣言」,能夠負責任地、符合道義地為面部分析技術的發展付出行動。

畢竟,演算法偏見的背後,其實是我們人類自己的偏見。

本文由「全媒派 」授權轉載,原文:人臉識別的性別性別偏見背後,是算法盲點還是人心叵測?

責任編輯:林群
核稿編輯:黃楸晴

下滑載入更多報導
臉書 新科技 演算法 性別 人臉識別
網民肥皂箱
商周讀者群

這是一個開放給所有商周讀者發聲的管道,如果你有意見想法不吐不快,歡迎站上我們準備的肥皂箱,大聲說出來!(來稿請寄至min_ni@bwnet.com.tw)

廣告
留言討論