Google TPU3.0 性能提升八倍 面臨微軟、Facebook軟硬「圍攻」

Google TPU3.0 性能提升八倍  面臨微軟、Facebook軟硬「圍攻」

▲ TPU3.0 (圖/翻攝自雷鋒網)

【原文:《谷歌 TPU3.0 性能提升 8 倍,但優勢遭微軟、Facebook軟硬「圍攻」》,作者:包永剛,智慧機器人網編輯整理】

文、圖/雷鋒網

Google 在自動駕駛與 AI 領域具備優勢,2018 Google I/O 大會重點之一,就是 AI 技術的發展。Google 首席執行長 Sundar Pichai,宣布推出 Tensor Processor Unit 3.0,並表示 TPU3.0 的計算性能,與去年相比提升了八倍,可達 100PFlops (每秒峰值速度達 1000 萬億次)。

Google TPU 是專門為機器學習訂製的專用晶片(ASIC),也是Google深度學習框架 TensorFlow 而設計。據了解,與一般 GPU 圖形處理器相比,TPU 以8位低精度計算節省電晶管,對精度影響很小,同時可大幅度降低功耗、加快速度,同時還有脈動陣列設計,優化矩陣乘法與卷積運算,並使用更大的偏上記憶體。減少對系統記憶體的依賴。另外更首度使用「液冷散熱」,高效率服務數據中心,以便定制硬體方案。

由於 Google 去年已發布第二代產品,所以對今年 TPU3.0 的發布,並不令人感到意外。但 Sundar Pichai 並沒有透露 TPU3.0 的更多細節。但可以看到 Google 希望以 TPU 為基礎,Google Cloud 像 Amazon AWS 一樣無所不在。

微軟 Brainwave 延遲比 TPU 低5倍

除了 Google,其他科技巨頭也在自主研發 AI 晶片,雖然從公開資訊中,我們可了解到 Facebook 和亞馬遜自主研發晶片,還處於初期階段,自主研發定制 AI 晶片的目的,也還不夠清楚,但可以看到的是,當數據量越來越大,且擁有最多和最好的數據成為公司重要競爭力時, Nvidia 的 GPU 可能不足以處理這些數據,需要超高效的定制晶片。

當然,Sundar Pichai 還表示,對於通過自主研發定制晶片滿足深度學習需求而言,「散熱」成為越來越大的難題,這也是 Google 不得不首度在數據中心使用冷卻液的原因。

所以,不只科技巨頭加入戰局, AI 晶片的創業公司也開始湧現,並獲得資本青睞,像 Cerebras Systems 、 SambaNova Systems 和 Mythic 等初創公司大多數已經募資超過3000萬美元,它們希望在具體的應用中通過其研發的 AI 晶片完成機器學習的任務,且「性能價格比」能超越 Nvidia。


另外,新入局者中也有傳統的晶片巨頭,如英特爾使用 FPGA 參與 AI 晶片的競爭,並隨著機器學習的需求變化,英特爾設計出更加靈活模塊化的 FPGA ,但 FPGA 的成本以及高門檻,增加 FPGA 應用與推廣的難度。

不過,和 Google 的其他競爭對手也押注定制晶片(ASIC)不同,微軟認為 FPGA 比 ASIC 更靈活,且標準 Intel Stratix FPGA 的性能至少可以和定制晶片相媲美。因此微軟選擇押寶 FPGA。

微軟 Build2018 大會於 5 月 7 日開幕,微軟 CEO Satya Nadella 發布了 Project Brainwave 預覽版,並稱延遲比 TPU 低 5 倍。微軟更說,利用 Project Brainwave 平台的客户可以使用標準的圖像識別模型,處理 100 萬張圖片,單個圖像在 1.8 毫秒内就能處理,比目前任何競爭對手的雲端服務都要好。

不過, FPGA 在雲端計算中並未被廣泛使用,而微軟正在把 FPGA 整合到其整個數據中心網絡中心網絡,變成一種硬體微服務。

微軟當然了解押寶 FPGA 面臨的成本與高門檻的難度,其決心也能由此窺見。同時讓我們看到微軟正在用 FPGA 參與競爭,這當然是 Google 不可忽略的對手。

新版 PyTorch 挑戰 TensorFlow

前面提及,自主研發晶片只是科技巨頭們,為了有效處理數據,讓數據產生更大價值。但想要吸引開發者,還需要配套工具。所以看到 Google TPU 之上有 TensorFlow,Brainwave 也支持微軟 CNTK 和 TensorFlow 框架。

所以 Google 如果想留住開發人員,不只需要更快的晶片,機器學習的工具也十分重要,讓開發人員進入其 GCP(Google Cloud Platform)和其他服務,並使用 TensorFlow 。這也是 Google 能否從目前核心的廣告業務中逐漸拓展到新領域,並維持領先優勢的關鍵。

隨著 Facebook 越來越希望用像 PyTorch 這樣的框架來挑戰 TensorFlow, Google 想保持領先仍有變數。

根據《雷峰網》報導,今年 F8 開發者大會翌日, Facebook 宣布 PyTorch 1.0 beta 版,將在今年夏天和用戶見面,並提前展示了這款新框架的特性。根據 Facebook 介紹, PyTorch 1.0 結合了 Caffe2 和 ONNX 模塊化、面向生產的特性,也結合了 PyTorch 靈活、面向研究的特性,為廣泛的 AI 項目提供從科研原型到生產部署的快速、無縫途徑,讓用戶可以快速實驗,通過能在強制執行模式和聲明執行模式間,無縫切花地混合前端優化性能。

需要了解的是, ONNX(開放神經網路交換)是 Facebook 去年聯合多家軟硬體公司,發布的「神經網路模型轉換協議」,現在新增了對蘋果的 Core ML 、百度 PaddlePaddle 、高通 SNPE 的支持,再加上原本支持的 MXNet 、Caffe2 、 PyTorch 、 TensorFlow 、 CNTK 等框架,實現了神經網路模型在各種主流框架之間的轉換。

因此,TPU3.0 只是 Google 服務其生態、保持其領先地位的第一步,硬體之上的 TensorFlow 同樣重要。微軟基於 FPGA 的 Brainwave 平台及 Facebook 的 PyTorch 1.0 軟體和硬體都與 Google 形成了競爭關係,未來 Google 能否保持領先地位?還需要看它是否能做出快速的回應。

留言