已加入收藏
已取消收藏
menu
帳號頭像 帳號選單下拉箭頭
/
熱搜內容
現正閱讀
AI人臉辨識被濫用有多可怕?讓長相不符標準的人找不到工作、警察抓錯犯人
畫重點
段落筆記
新增筆記
「請稍等」英文別直接中翻英說please wait a minute!一次掌握,常用的電話對談英文
0
/500
不公開分類 公開分類
儲存
至頂箭頭

國際 | 全球話題

AI人臉辨識被濫用有多可怕?讓長相不符標準的人找不到工作、警察抓錯犯人

AI人臉辨識被濫用有多可怕?讓長相不符標準的人找不到工作、警察抓錯犯人
如果有一台機器可以自動靠長相刷掉數百份履歷,為什麼不讓它這麼做呢?因為,「歧視」會是一個立即而明顯的危險。 (來源:Dreamstime)
撰文者:法蘭克.巴斯夸利(Frank Pasquale)
精選書摘 2023.05.11
摘要

1.AI人臉辨誤用情形在公、私部門的情況都越來越多,例如英國有警察部門部署人臉掃描器,以辨識和監控小型犯罪者、有心理健康問題的人、以及和平抗爭者。

2.長期以來,隱私權倡導者一直擔心AI人臉辨識系統資料庫的正確性。像是少數族群在AI資料庫中缺乏樣本,而可能造成不公平的情況。

3.我們應該要對AI有更多批判,包含機器的分析判斷缺乏理由、數據庫的大量資料被濫用,也要有資源充足且獨立的管制機關。

想像一個情景,你應徵一個工作卻遭到拒絕,唯一理由是,你聲音的音調和該公司不契合。

企業現在開始與一些獵人頭公司合作,這些獵人頭公司採用臉部和聲紋辨識技術,來評估「緊張」、「情緒」和「行為模式」,目的都是為了判斷哪一位應徵者跟公司的文化契合度最高。例如跨國會計師事務所PWC(資誠為其台灣分部)、萊雅集團(L’Oréal)、瑪氏食品(Mars)和花旗銀行等大公司,都部署了AI。

對於將AI作為人力資源工具來推廣的人而言,如果一台機器可以自動刷掉數百份履歷,為什麼不讓它自行判斷更多無法用言語描述的事情呢?

廣告-請繼續往下閱讀

因為,運用上述AI軟體評斷應徵者時,「歧視」就是一個立即而明顯的危險。AI軟體可能會排除少數族群,而這些少數族群是在AI資料庫中,不具代表性的群體。如果女性不是過去企業管理團隊的一員,「女性」這個資料特徵,就無法成為資料庫學習的對象、無法成為預測未來明日之星的基礎特質。

倡議組織「安普騰」(Upturn)發表了一份建議報告:關於有問題的招聘演算法,應「採取積極的措施,以檢測並消除該演算法工具中的偏見」。例如,當特別有潛力的候選人被AI過濾淘汰後,雇主可以特別提供他們第二次機會。

人臉和聲音辨識解析,也有損人的尊嚴和自主權。用AI分析一個人的履歷,跟用神態舉止的神秘特質來評判一個人,兩者之間有很大的不同。

對神態、舉止和外表做單純的機器分析,似乎仍然不尊重人。我們知道,企業高階經理人都不是這樣被AI選出來的,那為什麼要用如此非人性的過程去貶抑員工呢?

廣告-請繼續往下閱讀

誤認,就是不尊重!人臉辨識系統的配對「偽陽性」

英國至少有2個主要警察部門部署了人臉掃描器,以辨識和監控「小型犯罪者」、「有心理健康問題的人」、以及「和平抗爭者」。英國非營利組織Big Brother Watch則發現,超過90%所謂符合監控對象特徵的配對,都是「偽陽性」(誤判識別)。

這個問題,原則上可以透過更好的技術,或更大的資料庫解決,例如大量蒐集來自社群網路的標註照片。

然而,這裡還有另一個層次的問題,不只是技術問題:為什麼將精神疾病患者與囚犯混為一談?為什麼國家可以建置和平抗爭者資料庫?誰授權政府將已經有爭議的身份分類,去與辨識科技配對?

這種人臉辨識的誤用情形在公、私部門都越來越多。麻省理工學院研究員Joy Buolamwini記錄商業人臉辨識軟體在辨識少數族裔時普遍的失敗率,尤其是少數族裔女性。她將這種機器視覺稱為「程式碼的凝視」,它反映了「形塑科技之人的優先順序及偏好,有時也反映了他們的偏見與歧視」。

Amazon的影像辨識軟體Rekognition出現許多錯誤配對,少數族裔被配對為罪犯的情形,不成比例的高(編按:Amazon已無限期禁止美國警方使用這套軟體)。Amazon的系統,糟糕到讓其他幾家大型科技公司呼籲進行管制,就算管制也會影響他們自己的生意。

許多企業正在努力確保,在自己的資料庫中,有少數族裔充分的臉部資料;然而,一些民權運動者認為,人臉辨識資料庫的不完整,其實是一件好事。美國社會科學研究理事會(Social Science Research Council, SSRC)主席Alondra Nelson曾經指出,她一直難以理解「既然人臉辨識系統已經被過度濫用於監視用途,為什麼我們還會想要讓黑人社群在這樣的系統中更被認識」。

防止「偽陽性」的誤判是一個重要目標,但人臉辨識的整體性影響也必須解決,法律學者Woodrow Hartzog和哲學家Evan Selinger不斷提出警告與呼籲:應該禁止人臉辨識技術。

長期以來,隱私權倡導者一直擔心這類資料庫的正確性,Dana Priest和Bill M. Arkin在他們的《美國最高機密》(Top Secret America)系列報導中,揭露有數百個法人組織可以取得美國公民的大量資料。

這種情形帶來很高的風險,沒有工作、沒有去投票、沒有飛行紀錄和沒有公民身份的特徵,成為被假定會投下反對票的名單;這些遭到不公平鎖定的目標對象,往往沒有真正的救濟途徑,只會陷入毫無用處的機關內部申訴程序。

許多制度讓一般公民異常的難以「近用」政府和企業對他們所做出的評斷——更不用說是去挑戰這些評斷了。如果缺少這種基本保障措施,那麼「透過AI進行治理」的道德基礎就會崩潰。

以貌取人:從人臉辨識到「人臉分析」

有些著名的機器學習研究人員聲稱,我們的臉可能會揭露我們的性取向和智力;有人使用囚犯的臉部資料集合成資料庫,發展出犯罪特徵的刻板式影像。

●人臉分析技術找出特定身份者的特徵,預測人類行為

有一家新創公司聲稱它可以發現戀童癖者和恐怖分子的特徵,而且它的技術已被世界各地的保安機構使用。

批評者質疑這類預測的正確性;由囚犯臉孔組成的訓練資料並不足以代表罪行(crime)的樣貌,只是代表哪些罪犯已經被逮捕、監禁和拍照而已,還有很大比例的罪犯從未被逮捕或受到懲罰,因此,資料集並無法充分代表罪行本身

有某個研究,旨在辨識同性戀者臉孔,但其可能只是從約會網站的會員發現某些自我展示的模式,而該研究卻使用這些約會網站,作為訓練AI分類「同性戀」和「非同性戀」影像的資料來源。某些特定時代和地區的男女同性戀者,可能比較常戴眼鏡或比較少戴眼鏡、比較會留特定的鬍子,或喜歡展現微笑或更嚴肅的樣子。

丹.麥奎倫(Dan McQuillan)的警告,機器學習通常會做出很有影響力的預測,「以促進其與科學之間的比較,但是,機器學習並非普世和客觀的,而是旨在產生某些知識,而這些知識必然與特定運算機制及其訓練資料糾結在一起。」

前述所有這些缺點都指出,我們應該要對機器判斷的不透明性有更多批判;若機器的判斷缺乏解釋(或根本無法解釋)其推斷的理由,充其量該判斷只能代表其訓練資料的再現結果。

●以缺乏因果關係的AI人臉分析預測行為,是資料濫用

用AI預測犯罪活動,還會衍生更多其他問題,法學教授基爾.布南.馬克斯(Kiel Brennan-Marquez)解釋,有充分懷疑依據的判決先例,會要求執法當局提供一個可信的解釋,不只是機率上的、統計上的或人工智慧的解釋,而是必須解釋調查某嫌疑人的理由依據。

我們不僅必須瞭解我們正在被監視,還必須瞭解為什麼被監視。這是對國家權力的限制,因為國家可能抵擋不住社會控制的誘惑,太想使用先進的監視技術,以實現控制公民的目的。

預測分析技術背後的「黑盒子」,能夠輕易提供警察單位藉口,幾乎可以調查任何人,因為我們都可能做過一些行為,與潛在犯罪有某種程度的關聯。缺乏因果關係(而不只是單純缺乏關聯性)、以臉部特徵為基礎的資料預測,在沒有證據顯示臉型真的會影響犯罪的情況下,以此技術建構只有一些關聯性的基礎,來支持相關政策,令人毛骨悚然。

●用AI人臉分析技術做「情緒分析」的危險

面對情感計算的應用,我們也應該抱持同樣的謹慎態度。美國Affectiva公司很自豪的宣稱自己擁有一些世界上最好的「情緒分析」技術。該公司使用數百萬張臉的資料庫,為情緒進行程式編碼,宣稱該公司的AI可以從人的臉部影片中讀取悲傷、喜悅、厭惡和許多其他感受。這種情緒分析的市場需求很大;鑒於大量需要人工進行安全審查的工作積壓在案,美國軍方正在尋找可以標示出可疑表情的AI。

情緒檢測器在警務安全軍事上,都有許多應用,其歷史可追溯到測謊器(測謊器本身就有重大爭議,它在美國的就業情境中是被禁止使用的)。Affectiva的執行長兼共同創始人拉娜.埃爾.卡烏比(Rana el Kaliouby)拒絕將該公司技術授權給政府,但是,她也承認情緒辨識無論在哪裡使用,都是一把雙刃劍。她提出了一個想像,亦即未來的工作場所可以對員工的情緒狀態進行環境監控。

另一個很好的例子是,某個企業執行長正在向來自世界各地登入的人進行線上會議報告,機器會顯示出的訊息,即是否如該執行長希望的那樣引起共鳴。目標是否讓觀眾興奮?人們有動力嗎?這些都是核心問題,如果我們都在同一地點,就很容易蒐集到這些資訊;但是現在每個人都分散在各地,因此很難瞭解這些事情。

但是,如果你反過來使用相同的技術,說:「好,我將找出某個員工,因為他們似乎真的很不投入工作。」那麼這就完全是資料的濫用。

在上述所有情況下,我們必須做的不僅是對企業社會責任和管制,做出模糊籠統的承諾,而是更需要建構實踐的社群,賦權員工「吹哨者」舉報並對抗濫用科技的作為(無論是企業內部還是外部);我們需要資源充足且獨立的管制機關,能夠依據明確的法規執行;我們必須對違反法規的行為給予真正的懲罰,這些是人性自動化不可或缺的結構性基礎。

關於問責性的契約條款和法制目標的辯論,也絕不能只停留在公平議題上,我們必須考慮更大的問題,例如究竟是否應該開發和部署這些技術工具。

書籍簡介

《二十一世紀機器人新律:如何打造有AI參與的理想社會?》 

作者:法蘭克・巴斯夸利(Frank Pasquale)
譯者: 李姿儀
出版社:左岸文化
出版日期:2023/03/08

作者簡介

法蘭克.巴斯夸利(Frank Pasquale)

現為美國布魯克林法學院教授,專長領域為人工智慧法律、資訊法等。

畢業於美國耶魯大學、英國牛津大學。其研究領域著重於健康照護、隱私、資訊、網路、演算法之法律與政策、數位科技法制以及智慧財產權法等,學術成果斐然。2015年出版《黑箱社會》(The Black Box Society: The Secret Algorithms That Control Money and Information)一書,針對當代演算法應用所形成的黑箱社會及其運作、影響進行深入討論,並試圖提出解決方法。該書不但獲選為當年度最受矚目書籍、最佳學術論著外,現已翻譯為中、韓、法等超過七種不同語言。

同時,巴斯夸利目前為美國國家人工智慧諮詢委員會(U.S. National Artificial Intelligence Advisory Committee,NAIAC)成員,為美國總統和商務部人工智慧倡議辦公室(National AI Initiative Office,NAIIO)提供建議。過去他亦曾為各國政府及民間單位提供醫療衛生、網際網路和金融相關領域專業諮詢,包括美國衛生及公共服務部(HHS)、美國眾議院「司法、能源與商業委員會」(U.S. House Judiciary and Energy & Commerce Committees)、美國參議院銀行委員會(Senate Banking Committee)、美國聯邦貿易委員會(FTC)、歐盟執委會各署(directorates-general of the European Commission)及加拿大和英國官員等十數個政府或民間單位。

巴斯夸利不僅專精於學術研究,更將複雜的法律政策論述,透過公開演講、著述以及公共服務傳遞於社會公眾,以因應近來人工智慧等資訊技術持續蓬勃發展所可能產生的法律、倫理及社會議題或困境,提出解方。

責任編輯:倪旻勤
核稿編輯:陳瑋鴻

AI 執法 人臉辨識 警察 面試 資料庫 人臉分析 軟體
精選書摘
精選書摘
出版社
展開箭頭

蒐羅與財經、職場、生活相關書籍內容介紹及書摘,協助讀者快速閱讀書籍精彩內容。

廣告-請繼續往下閱讀
留言討論