財經 | 產業動態
剛合作輝達,今又奪Google AI大單!聯發科AI版圖正式跨足伺服器
1.Google衝刺AI,傳找聯發科合作,攜手打造最新AI伺服器晶片。
2.業界解讀,Google上門找聯發科攜手開發最新AI伺服器晶片,意味聯發科在AI的實力深獲肯定。
3.此次協助Google打造的AI伺服器晶片將採台積電5奈米製程生產,力拚明年初量產。
Google衝刺AI,傳找聯發科合作,攜手打造最新AI伺服器晶片,並將以台積電5奈米製程生產,力拚明年初量產,象徵聯發科正式跨足當紅的AI伺服器相關晶片領域。
對於相關消息,聯發科不回應市場傳言。消息人士透露,這次Google與聯發科的跨國合作,由聯發科提供串行器及解串器(SerDes)方案,協助整合Google自行開發的張量處理器(TPU),助力Google打造最新AI伺服器晶片,且性能比透過CPU或GPU為架構更強大。
聯發科AI能量相當豐沛,旗下各產品線都有AI功能強化。聯發科總經理陳冠州先前曾公開表示,不論是終端或雲端的AI,如何迎接大型語言模型(LLM)的發展趨勢,都是聯發科在思考的議題。
陳冠州認為,聯發科在AI運算技術領域投入很多,從幾年前就認為,未來的運算不只是CPU、GPU,還會有基於AI的APU趨勢會興起,所以也在其天璣5G晶片中導入APU架構。聯發科將於10月底推出天璣系列第三代晶片天璣9300,將具備基於LLM的AI運算技術。
業界解讀,如今Google上門找聯發科攜手開發最新AI伺服器晶片,意味聯發科在AI的實力深獲肯定,也是聯發科跨足當紅的AI伺服器領域一大里程碑。
業界指出,Google多項服務都與AI有關,多年前投入深度學習技術後,發現運用GPU衍生出的運算成本十分昂貴,因此Google決定自行開發深度學習專用的處理器晶片TPU,並於2015年亮相第一代TPU處理器,部署到自家資料中心。
回顧Google當年在開發者大會首次揭露其TPU,與當時的CPU與GPU相比,其TPU能提供高出30至100倍的每秒浮點運算性能,在整體運算效能表現有多達15到30倍的提升,甚至在效能、功耗比上,更是獲得近30至80倍的改善,如今Google的TPU晶片已經來到第四代。
消息人士透露,聯發科自行研發的Serdes已經有多款產品量產,技術成熟,此次協助Google打造的AI伺服器晶片將採台積電5奈米製程生產,預計今年底前送交給晶圓廠製造(tape out),力拚明年初量產。
業界人士說明,高速SerDes是兩個獨立的設備,即發送器(串行器)和接收器(解串器),是雲端數據流量和分析的重要關卡,主因隨著大規模資料中心增加,這種資料中心通常需要各種不同形式的網絡,從伺服器到機架路由器的頂端、從機架到機架,以及從各地或全世界的資料中心進行遠距離運輸,而透過高速SerDes晶片,將可解決超高速傳輸的問題。
※本文由《經濟日報》授權刊載,未經同意禁止轉載。
延伸閱讀:
責任編輯:劉怡廷
經濟日報為台灣財經新聞媒體的領導品牌,1967年4月20日,隸屬聯合報系,也是國內發行最大、最具影響力的財經媒體,提供工商業界新聞、展覽、論壇、刊物、講座、網路等多元服務,經濟日報財經媒體集團擔負聯合報系財經數位平台的旗艦角色。
經濟日報每日透過專業記者群,將國內、全球、兩岸、財經、產業、觀點、股市、企管、經營等資訊與分析,匯整成即時、精確與最精闢的內容,為財經業界每日必讀的數位全媒體。