管理 當AI更有同理心 AI越來越像人。最近在音訊處理領域,它們在掌握情感表達、非語言線索和聲音語調方面,有時甚至超越了人類。 例如,谷歌(Google)旗下AI筆記與研究應用程式NotebookLM,在九月中旬推出「Audio Overview(音訊概述)」功能,能直接把整篇論文變成Podcast,特別適合偏好以聆聽代替閱讀的人。其呈現出來的作品,不只內容上下文通順,連聲音表情也恰到好處。 另一個名為Hume(休姆)的應用軟體,則有如一位心理輔導師。使用者透過手機麥克風和它閒聊,它能回應你的正面、負面情感,接著提供引導,協助人管理思緒與情緒。 也就是說,AI發展至今,不僅能表現出細微的聲音表情,還能聽出一個人發言時的情緒狀態。 AI有了這個能力,可以用來做什麼?答案是,協助人類傾聽。 這在公共事務上特別能派上用場,選舉是其中典型的應用場景。如美國波士頓市長吳弭二○二一年競選時,就採用「Real Talk For Change」系統來回應選民的訴求,那是一款來自AI新創非營利團隊Cortico所開發的平台。 去年,Cortico開發了一款與平台整合的App。它的具體使用方法,是錄下團體討論時的各方發言,透過AI分析發言者所用的字句、聲音表情,歸類並總結重點,協助找出各組參與者之間有共鳴的見解,再公開在網站上、呈現給決策者。 以往,決策通常是通過投票產生,可能僅限於少數選項,無法說服所有人。上述方法則有所不同;通過廣泛傾聽,它可以發掘出參與者之間的粗略共識,以及共同的價值觀。這使得各群體之間更容易相互聆聽,縮小對立雙方之間的差距。 AI能「理解」人類語言,確實彌補了人類先天的不足。因為,當一個人試圖傾聽另一個人時,有許多變數——例如聽者的個性、性格、理性和感性傾向、認知能力等。即使受過專業訓練,要一直維持主動傾聽的狀態也很困難。相比之下,AI沒有這些干擾;由於沒有自我,它可以扮演不知疲倦的聆聽者角色。 但即使AI的功能日益強大,也不代表它能完全取代人類。正如Cortico的例子,對話仍須在人與人之間進行,而非每個人各自與機器互動。如此一來,AI充當人與人之間的橋樑,幫助找到真正的共識,填補溝通拼圖中缺失的一塊。即使群體之間存在巨大差異的鴻溝,隨著AI功能越來越強大,也變得有機會被填補。 ... 2024.10.03
管理 不是聲量大就贏 月初,Meta執行長佐伯格宣布,將在美國停止該平台的第三方事實查核計畫,預計參考社群平台X的經驗,改採「社群備註」模式闢謠。 背後主因有二,一是,多年來大量美國使用者反映,該機制的運作不夠透明,政治相關貼文屢遭限流,讓許多川普支持者不滿已久。 更關鍵的是,川普新任命的聯邦通訊委員會(FCC)主席布倫丹.卡爾(Brendan Carr)曾在去年年底,公開點名Meta、Google等多家科技平台巨頭,大意如下:「各位的平台可以免責進行內容審查,是因為《通訊端正法案》(CDA)第二百三十條(編按:該條款賦予線上平台,對使用者生成內容的免責權)。這條款能成立,前提是平台基於善意運作,但如果平台把審查責任外包給特定組織,且機制不透明,還能算是善意運作嗎?」 在川普當選總統之後,Meta加快動作,改用更透明的方式來因應爭議訊息。而Meta參考的對象,正是透過社群備註機制,來應對美國大選這場充滿對立議題混戰的社群平台X。 X的模式是,招募許多志工為爭議貼文加上註記,每位志工都代表不同價值觀。當他們基於自身立場,為彼此的註記按讚或倒讚,最能獲得正反雙方一致同意的註記,就會被平台置頂顯示在爭議貼文下方,原本貼文者即使不認同,也拿不下來。 很長一段時間,社群平台的運作機制讓立場不同的人更加分裂,社會走向極化。這個新機制的好處,是透過「橋接排序」來促進移民、性別等議題上立場分歧的使用者彼此爭取支持,增進不同群體間的互相理解。 也許有些人會擔心,即使平台可以有效杜絕分身帳號,特定陣營的支持者仍然會透過集體動員,來試圖擾亂這個機制。但X的經驗顯示,這樣做的效果有限。畢竟,想作弊的前提,是要能創造出兩邊陣營都會按讚的備註,但如果該用戶真的這樣做,就是在促進社會互相理解的利他行為了。 我認為,社群平台的經營不該是數人頭,如果比哪邊聲量大就贏,只要願意花錢,要多少聲量都有。但要做到讓對方陣營的人同意,不是錢買得到的。 未來的社群平台,不能再只追求流量和黏著度,更應該進一步擴大「橋接排序」的適用範圍,並且運用AI綜整各方看法,讓不同陣營的人即使無法完全認同,也能理解彼此的觀點從何而來。唯有如此,極化的社會才能建立起溝通的橋樑,朝向更具韌性的未來邁進。 ... 2025.01.23
財經 AI對齊不能等 台灣在二○二五年將正式步入「超高齡社會」,每五人就有一人是六十五歲以上的長者。對長輩的照護,更需要陪伴與傾聽,AI陪伴機器人的出現,成為解方之一,然而,AI沒有情緒、不是真人,這樣做,真能得到認可嗎? 答案竟是可以! 最近,我加入的 「集體智慧計畫」(CIP.org)團隊,和調查研究公司Remesh.ai、Prolific.com合作,向全球一千二百四十三名不同背景的參與者,進行「全球之聲,AI未來」調查,其中一項結果顯示,參與者對AI提供情感支持給弱勢群體,態度抱持開放,並非全然拒絕。 該結果顛覆了常見的假設:冷冰冰的AI,介入情感領域,將普遍不被歡迎。許多參與者認為,AI在長輩或社會孤立者中提供陪伴具有價值。這表示,人們正逐漸接受AI扮演某些特定的支持者角色。 這項調查細緻的地方在於,問卷從開放式問題開始,同時也秀出其他人的答案,讓受試者選擇哪些最能引起共鳴。系統藉由AI演算法,針對受試者的答案,調整下一組問題,或追問上一題的延伸題,因此能在很短的時間裡,精確的收斂、得出集體的共識。 問卷裡有一題是,「有哪些核心價值是發展AI時,不能忽視的?」多數參與者認為是「尊重」,包括尊重個人邊界、尊重彼此的差異等。要在AI發展中保持互相尊重,即使掌握尖端AI技術者,也必須尊重AI使用者、受AI影響者。 除了尊重,還有同理心、當責(即若用AI產生不良影響時,須為此負責),這是全球對AI的發展與應用,最在意也最不能打破的三個核心精神。 回頭來看,用AI陪伴長者,是否可能違反這些核心精神,變得不尊重、不同理、不當責?由於AI持續發展中,答案尚不能定論,此時我們要做的,不是等著AI去挑戰、撼動這些基本價值,而應積極檢視AI演算法的一舉一動,看它是否合乎社會對陪伴角色的期待。 而這些社會期待如何取得,正是藉由Remesh.ai或其他廣泛傾聽的工具,彙整出社會的最大共識,隨時對齊、導正,讓AI治AI,別讓它像是社群媒體,在十年、二十年後,才突然發現發展歪了樓,就得花更大的力氣去彌補。 ... 2024.10.31
管理 小蝦米如何讓大鯨魚轉向? 我在五二○後馬不停蹄,到法國巴黎參與歐洲最大的科技新創展VivaTech發表演說,開啟了為期近一個月的歐盟巡講。在創新的最前線,所有人都還是在談論AI。但這次,有個現象值得留意:許多歐洲人對AI的態度,並非一片樂觀,甚至有些憂心。 根本原因有幾:歐洲歷史悠久,其文化底蘊深厚,「老」原本是它的優勢,但如今在AI發展的巨浪下,也被逼著面對這套「新」趨勢。 首先面對的,就是資料集權的問題。尖端AI技術目前高度集中於少數科技巨頭,當眾多來自歐洲的創作,都被巨頭訓練成專有的AI模型,就等於把自己累積的文化、知識的詮釋權拱手讓人。 這種擔憂,同樣也發生在美國,我們可從最近的一則新聞看起。 前洛杉磯道奇隊老闆弗蘭克.麥考特(Frank McCourt),正尋求競購TikTok的美國業務,並聲明「將TikTok遷移至開源協定」,恢復使用者對數位身分和內容的自主權、邀請創作者參與TikTok的治理,並計畫與其他社交平台合作,確保內容可以跨平台傳播。 為什麼要這樣做?原因是,TikTok的AI學習你的偏好,可以用來吸引你,卻也可以用來操縱你。這些演算法決定每個人接收資訊的優先順序,以不透明的方式影響社會。 如今許多人都知道,大型平台會分析觀看行為、進行內容和廣告的精準投放。雖然往往令人分心,但若已經養成使用習慣、無法戒除的話,也就難以脫離這樣的環境。 這該怎麼辦? 解方之一,是將歐盟數位法案的相關規定延伸,讓大型平台必須「攜碼互通」。例如,要求這些平台上面貼的內容,讓其他平台的使用者也可以收看、互動,這樣就能避免內容、個資與使用者行為、習慣紀錄,被少數巨頭壟斷。而對創作者來說,也能增加許多選擇,不再受控於特定平台。 另一解方,是用「鈔」能力買下平台,就如同前道奇隊老闆一樣,導入開源協定,運用類似合作組織的治理方式,進而「還權於民」。就算沒有財團背景,主事者也可以先聯合其他小型社群平台,逐步讓分潤跟控制權回到使用者手上,並且運用開源AI模型,推薦有助於互相理解的內容,讓良幣驅逐劣幣。 雖然這聽起來相當理想化,但也可以引導新的想像。境外平台的治理,是全球共同面對的課題,在AI新浪潮來的時候,我們不妨換個角度,集結眾人智慧,促成正向改變。 ... 2024.06.13
管理 讓「專業」的來 美國謀智基金會(Mozilla Foundation) 最近公布「Rise25:引領下一波AI浪潮」名單,共有二十五位,我很榮幸獲選為其中之一。 入選者多以「平等」為本,以開源(Open Source)精神在各領域耕耘,著手弭平種族、性別、貧富不均的現況。無論是科技或商業領域的應用,獲選者所提出的AI方案,都是以此為基礎。 開源平台猶如公共圖書館,在開源面前,人人平等。運用開源模式,才能解決生成式AI遭科技巨擘壟斷的危機,讓資源共享。 為什麼這樣說呢?因為AI模型越大、資料量越多,就像腦容量大、書讀得多,訓練成本也隨之升高,往往只有少數科技公司才能負擔得起。透過將基礎模型開源,各界才能進一步結合自身的資料、依照需求客製化,產生出更符合現場需求的AI系統。 例如,本屆Rise25獲獎者彼得.高爾特(Peter Gault),其開源公益事業Quill.org便強調與教育者的密切合作。高爾特透過AI,免費為學生提供學習讀寫的資源、也為教師提供優質課程內容,讓資源有限的學生能獲得更多學習機會。 Quill集結了一群中小學教師,來創建他們需要的內容。Quill的教師諮詢委員會(Teacher Advisory Council, TAC)有超過三百名成員,每個學習活動推出前,會先經過這群專業教師的測試,建立大量教學現場的樣本,來引導AI更貼近真實,不會出現雞同鴨講的謬況。 這種由教育者主導的開發方式,確保了AI生成的反饋,能夠符合教學當下需求,成為課堂的實用工具。相對而言,許多由技術團隊主導開發的生成式AI系統,在學生卡關時往往直接提供解答,無法有效滿足學生的學習需求。 目前Quill仍限於英文使用。幸好,我國各界也有許多人正投入心力在開源模型、資料集、評測系統上。由化工、電子、醫療、內容、法律等業界專家共同投入貢獻,與台大團隊合作的「繁體中文專家模型開源專案(Project TAME)」,就是產學結合的好例子。 而在教育界,也有台灣知識資料集(ATK)等開源專案,涵蓋歷史、文化、政治、教育、時事等廣泛主題,由教育工作者和主題專家策畫和驗證,讓AI工具符合在地脈絡,也更能為全民所用。 如今,各界都在探討生成式AI是否只是一時風潮?與此同時,致力於開源的各界夥伴,正一步步攜手解決以往難解的問題,奠定平等、普惠的基礎。 ... 2024.09.05
管理 讓演算法變得善良 當社群媒體不斷推播讓人感興趣的議題、廣告時,我們或許已經習以為常,卻很少想到,當前的演算法,其實正在讓世界走向焦慮。 焦慮感最深的,是有孩子手機成癮的家長。兒少從小沉浸的數位世界,往往是由「預測式AI」決定其接收的訊息,也常伴隨著社交焦慮、無聊感、親子衝突、人際疏離等情況。 預測式AI,依據使用者觀看的行為推薦內容,以「黏著度」做為指標,放大讓使用者放不下手機的內容。這或許迎合了使用者的某些偏好,但也特別能引發強烈的焦慮反應。全球受眾無論老少,情緒狀態都很容易受到影響。 這類AI造成的社會問題,要如何解決呢? 現在科技巨頭在討論的是,如何將預測式AI中的參數多元化,改為以親和力(affinity)、同情(compassion)、好奇心(curiosity)、細緻(nuance)、個人故事(personal story)、推理(reasoning),以及尊重(respect)等七種正面指標做為參數,來弱化極端內容的聲量。 其次是運用「橋接排序法」(bridging-based ranking),讓AI幫我們找到對立中的共通點。 所謂「橋接」,是將原本對立的兩群人連接起來,只要有某些看法是這兩群人都同意的,就有機會跨越中間的鴻溝。 舉例來說,X.com、美國版YouTube推動的「社群備註」功能,當使用者認為不完整、不正確或須補充時,都可以在內容下方寫下備註。能讓分裂的兩群人都認同的備註,就會做為平衡報導呈現出來,而非由點閱率掛帥。 回過頭來看,網路言論之所以會激化對立,是因為預測式AI將極端情緒的聲量放大,同意的人火上加油,不同意的人更加反彈,社會對立便越來越深。 但決定排序的網路平台商,則撇除一切責任,認為這是「使用者自行提供」的內容,掩蓋了AI所帶來的傷害。 想改變現況,我們得讓更多人自願參與、讓演算法變得善良,才能在分化的人群中,找到共同意見,恢復真正的言論自由。 ... 2024.07.11
財經 AI巨頭為何願跟對手合作? 最近,我在美國舊金山參與國際AI安全會議,分享台灣如何應對合成式AI造成的危害。 「安全」是全球AI社群最關注的議題之一。過去一年,全球各國政府、業界、學界就針對AI安全議題,在英國、韓國舉辦峰會,也促使Google、Meta和OpenAI、微軟等AI領域的領先業者自願承諾訂定風險門檻,在嚴重且不可容忍的極端情況下,如果該公司無法減輕風險,它們將停止開發或部署其模型和系統。 面對AI安全問題,這些科技巨頭並非初次做出自律承諾,但這回可能是它們最積極投入資源,甚至願意與競爭對手合作的一次。 因為輝達晶片訓練的開源模型Nemotron,表現已經超越OpenAI的GPT-4。最新調查指出,超過四成的《Fortune》五百強執行長會優先選擇開源模型。 相比巨頭們的封閉模型,開源模型不只處理速度更快、能做更多先進應用;如有微調需求,開源模型的更新成本也更低。 獲得輝達投資的Sakana AI就主張,組合的開源小模型,會比訓練大模型,更能解決企業的問題。如果這份假說成真,大廠的發展空間很可能會受限。 這樣的威脅,讓科技巨頭們更在意開源社群的意見。也因此開啟了巨頭們和開源社群,在AI安全議題上的合作機會。 畢竟,科技巨頭們花了很大力氣才推出新模型,不希望犯罪者很容易就能繞過模型,產出非法內容,因此跟社群合作,協力維護開源信任與安全工具、快速更新防堵方式。 開放社群也希望集結群體力量,一發現非法內容流傳時,就能快速更新資料庫,而非壟斷在幾家大廠的封閉系統裡。 除了防堵犯罪,兩大社群也開始針對語言、文化對齊有所合作。 相信大家都有用過ChatGPT,會發現它回應的用詞或句式,往往並不是台灣用法,使用者卻缺乏簡單、有系統的方法告訴ChatGPT,這句話怎麼講才對?如果能用一套方法蒐集回應,甚至大家可以在這些回應上面批注,讓ChatGPT自動對齊我們的文化脈絡。這是開源社群如C4AI、EleutherAI注重的價值,也有足以讓封閉系統借鏡之處。 目前開源跟封閉的大型語言模型,誰會更受青睞,還在未定之天。但,不論如何,這都是大廠開始重視全世界各地不同文化需求的契機,讓未來我們使用生成式AI時,各地的小眾文化、在地社群,都能獲得平權對待。 ... 2024.11.28
管理 用AI掀起政治漣漪 我與經濟學家衛谷倫(Glen Weyl)等人共同撰寫的新書《多元宇宙:協作技術與民主的未來》(Plurality.net),最近在東京掀起漣漪。 書裡提及的擴增式審議,具體說明如何運用AI,做到廣泛傾聽(broad-listening),這讓身為AI工程師的安野貴博受到啟發,在與我視訊對談後,決定投入東京都知事選舉。 安野貴博獲得十五萬票,創四十歲以下參選人有史以來最高紀錄,也是政治素人紀錄的新高。日本政治環境保守,年輕人更對政治冷感,但這次選舉卻一反常態,為日本社會帶來震撼。 安野貴博參選目的是為了要顯示,像他這樣完全沒有奧援的素人,在技術協助下,也可以提出高品質的政見,並且能持續的跟選民進行政策溝通。他在競選期間大量運用AI科技,搭配社群媒體的發散,讓民眾幾乎沒有門檻的參與他政見的形塑。 任何人只要在社群媒體上發文,加上#TOKYOAI,就會被收進安野貴博的政見資料庫,越來越多人知道也試著用這樣的方式,表達自己的意見,看能否被採納。 安野貴博藉此蒐集選民的聲音,當考慮不周到的政見被指正,也願意即時調整,政見品質因此提高。每次政見在GitHub平台更新後,他的「虛擬YouTuber」(Virtual YouTuber,簡稱VTuber)就會自動再錄製一次影片,來即時反映民意。 他的競選口號是「用科技打造不讓任何人落後的東京」,也就是不只年輕人,安野貴博讓AI技術同樣適用於老人家。跨越數位落差的方法,是使用前一代的技術,老人家不會上網,就用電話表達意見。 選民可以撥打給「AI安野」,提出對政見的疑問。這個AI機器人會自動歸類來電者的提問,並且即時回應。其中使用到的技術,包括語音辨識、合成,以及RAG(Retrieval Augmented Generation,檢索增強生成)技術等,提高問答能力和內容生成的準確性。 上述只是其中一例,安野貴博說,競選時所用的AI技術,若當選也將落實在市民日常生活,包括長者照顧、遠距醫療和教育等領域,且技術完全開放,其他人能直接套用。 日本獨立智庫對安野貴博的政見給予最高評價。雖然選舉結果最終由小池百合子連任,但她也讚賞安野貴博的做法,甚至希望延攬他進入團隊。 傾聽人民的聲音很重要,卻知易行難,特別是要同時聽取很多人的意見,更難。好在,如今這些理想的概念,在技術成熟下,開始逐漸落實,讓我們邁向更寬廣的未來。 ... 2024.08.08
管理 AI調適 談到AI治理,除了相關立法之外,我想強調的是「超前部署」的AI調適機制。 為什麼要超前部署? 好比數年前科技會報辦公室和我曾拍過影片,用便宜的手機、筆電,來深偽(deepfake)我自己的影像,來告訴大眾深偽技術有多麼容易。 這樣一來,在還沒有發生大規模損害時,就可以早一步來防治,也同時提前讓大眾了解如何因應風險。 而所謂AI調適機制,背後就有兩個超前部署的方向:一是透過全民參與,迅速發現新的危害;二是在發現後,如何快速告知從業人員,並且在危害的邊界前訂定界線,引導業者往安全的方向開發。 因為AI是通用技術,在實驗室的研發階段難以評測所有可能的危害,所以應該要有系統性的方式,透過至少每半年一次的審議,來了解實際部署時,對社會的影響。 但,這代表評估危害的標準跟定義,就綁在一小群人身上嗎? 並不盡然。我們可以採取兩種做法,第一種是「自願通報」,也就是任何人發現有潛在危害,都有一個地方可以舉手發言,並跟其他處境類似的人討論。第二,我們可以採用「隨機抽樣」的方式,在確定人口比例後,進行分層抽樣電訪。不過,這種傳統的民意調查方法也有其缺陷,通常只能問選擇題,無法進一步詢問開放性的問題。 為了因應這個挑戰,我們可以運用「審議式調查」模式,結合審議討論和隨機抽樣,邀請全國具有統計代表性的幾百人,甚至上千人一起分組加入視訊會議,彼此腦力激盪。如此一來,既可以深入討論,也讓更多民眾都有機會參與。 我期待,根本還沒使用 AI,或者是剛剛受到影響的人,都有機會透過審議的過程,先了解有這一件事,而且放在自己的生活情境當中想一想:如果親朋好友,甚至公司開始運用先進的生成式AI時,各方要如何因應?如此,我們才能夠超前部署,即時回應社會的需求。 ... 2024.01.18