商周

啟動成功關鍵,隨時掌握商周.com最新資訊

提供第一手新聞解析、財經趨勢、專屬活動

已加入收藏
已取消收藏
熱搜內容
現正閱讀
吹哨人再發聲!FB「21天實驗」遭洩:看到的死人照片,比一生還多
畫重點
段落筆記
新增筆記
「請稍等」英文別直接中翻英說please wait a minute!一次掌握,常用的電話對談英文
0
/500
不公開分類 公開分類
儲存

財經 | 產業動態

吹哨人再發聲!FB「21天實驗」遭洩:看到的死人照片,比一生還多

Facebook吹哨者Frances Haugen稱,該司曾於2019年做過實驗,發現3周之內,用戶牆上會充斥假新聞及煽動性照片。 (來源:Dreamstime)
撰文者:林妤柔
摘要

1.吹哨者Frances Haugen公布一份46頁研究筆記,稱Facebook早在2019年就於印度做過實驗,發現3周之內,用戶牆上會充斥假新聞及煽動性照片。

2.印度「21天實驗」表明,Facebook在全球傳播有害內容的問題可能更加嚴重,而內容審核所花的錢大多集中在英美語系媒體。

3.事實上,印度正是Facebook主要成長的市場之一,但因官方語言眾多,Facebook傾向將監督內容外包給承包商。

4.《路透社》報導,Facebook明知沒有雇用足夠內容監督人力,而辨識、移除此類內容的人工智慧系統往往無法勝任這項工作。

今年37歲的Frances Haugen,原為Facebook公民不實資訊團隊產品經理,2019年進入Facebook,於5月離職。3日,Haugen接受CBS「60分鐘」(60 Minutes)節目專訪,5日前往美國國會作證,揭發了包括Instagram對青少年造成負面影響、販毒及人口販賣公開利用Facebook、Facebook演算法造成分化,以及放寬名人貼文品質控制的「XCheck專案」等醜聞。

在吹哨者風波下,Facebook股價自本月初開始走跌,目前已累計跌幅10%。

Facebook演算法到底有多可怕?據Facebook吹哨人Frances Haugen公布資料顯示,Facebook早在2019年2月做過相關實驗,在印度設立測試帳號,觀察自家演算法如何影響這成長最快、最重要的海外市場,想不到結果竟連公司員工都震驚了。

Haugen先前指控,Facebook明知道Instagram危害年輕人精神甚至心理健康,卻故意淡化負面影響,現在她又公布一份46頁研究筆記,指出演算法的可怕,因為Facebook設立的測試帳號頁面,僅3週就充斥假新聞和煽動性照片,包括斬首、暴力場景及印度空襲巴基斯坦的假照片,「逗人開心」社團竟出現300名恐怖分子在巴基斯坦爆炸身亡的假新聞。

研究人員寫道:「我在過去3週看到的死人照片,比我一生看到的總和還多。」

廣告

這項測試起初是設計注意Facebook推薦內容,測試帳號身分是使用印度海德拉巴、住在齋浦爾的21歲女性資料,且只關注Facebook推薦的網頁或社團,但印度實驗表明,Facebook全球傳播有害內容的問題可能更嚴重,因內容審核花的錢大都集中英美語系媒體。

但Facebook主要成長市場來自印度、印尼和巴西等,所以一直應徵有語言能力的人做基礎內容監督,但印度擁有13億人口和22種官方語言,因此實際運作更困難,Facebook目前傾向將監督內容外包給承包商。

Facebook發言人表示,公司已大量投資技術,並找到各種語言的仇恨性言論,包括印度語與孟加拉語,因此今年看到的仇恨言論數量減少一半,降至0.05%。然而穆斯林等群體的仇恨言論全球都呈上升趨勢,所以Facebook將盡量隨網路仇恨言論演變更新政策。

語言成為Facebook審核仇恨內容的絆腳石?

《路透社》報導,更多內部消息揭露,Facebook明知沒有雇用足夠工作人員,他們既要有語言底子,又要了解當地事件,才能即時了解這些仇恨文章。此外辨識、移除此類內容的人工智慧系統往往無法勝任這項工作。

廣告

員工於文件提到,這些問題可能妨礙公司原本的承諾,即阻止阿富汗、葉門等地的仇恨言論或其他違反規則的資訊傳播。

雖然Facebook長期將AI系統和人工審查視為解決平台危險內容的方式之一,但除了美國、加拿大和歐洲,其他地方的語言對Facebook自動審查功能可說相當頭痛。據一份文件顯示,2020年Facebook篩選演算法無法辨識緬甸語錯誤,以及衣索比亞的奧羅莫語(Oromoo)或阿姆哈拉語(Amharic)的仇恨性言論。

這些偏激文章恐在Facebook不斷流竄,最終激化公司認定的「高風險國家/地區」,導致衝突大增。

Facebook發言人表示,公司現在有主動辨識技術,檢測奧羅莫語和阿姆哈拉語的仇恨言論,並雇用更多有語言基礎、了解國家關係的專業人士,包括緬甸和衣索比亞工作的人。不過他也承認,審核阿拉伯語系內容是相當大的挑戰,因此Facebook過去2年還特地投資員工。

目前主動辨識技術可辨識50多種語言的仇恨性言論。Facebook指出,公司會根據市場規模和風險進行評估,決定在哪裡建置人工智慧系統;還會有1萬5千名審核人員把關全球用戶內容,「增加更多語言專業知識一直是我們的重點」。

*本文獲「科技新報」授權轉載,原文:Facebook 演算法多可怕?實測 21 天全是假新聞、仇恨言論,卻因「語言」難控管

責任編輯:李頤欣

核稿編輯:鍾守沂

下滑載入更多報導
吹哨者 fb 內容審查 21天實驗 印度 Facebook 演算法
科技新報 TechNews
科技新報 TechNews

由多位喜好並擅長各種科技知識的朋友共同創立的「科技新報」。參與成員各有專精,網站內容涵蓋各式新科技訊息,從行動運算、醫療生技、網路,到科技產業、技術等多樣領域,期盼以自身的知識與經驗,帶給所有讀者未來市場與科技生活更多的啟發與思考。

廣告
留言討論