Google發布TPU人工智能服務器芯片技術

2017/4/7 15:58:10國際資訊
簡介:

Google今天在一篇論文中公布了Tensor人工智能服務器處理芯片TPU的詳細資料。TPU是一種專門為本地高效率處理人工智能計算任務設計的服務器芯片,Google公司從2015年就開始使用這種芯片,雖然2016年Google曾經曝光該芯片的存在,但是并未提供任何技術方面的細節信息。


6e2b4ef191bb0aeefb9a943cc2575de5.jpg


在今天的全國工程師學術會議上,TPU論文的75位聯合作者之一,David Patterson就TPU的技術論文發表了演講。


Patterson指出,Google依賴TPU來完成人工智能神經網絡第二階段的計算任務。首先,在第一階段Google用大量數據訓練神經網絡,這個階段的計算任務主要依靠服務器GPU來加速,然後,Google使用TPU來更有效率地推斷新數據,Google宣稱GPU在新數據推斷方面的性能表現大大優于GPU或者x86處理器芯片。

“雖然一些應用的處理器使用率并不高,但是TPU的處理速度依然能夠比當下的GPU或CPU快上15-30倍”,Google在論文中寫道。Google所指的“當下的GPUS和CPU”,分别是Nvidia的TeslaK80和英特爾Haswell 架構Xeon E5-2699 v3這樣的“當紅炸子雞”。


過去五年,AMD和Nvidia兩大顯卡廠商憑借人工智能熱潮重新回到IT産業聚光燈下,而顯卡GPU也成了深度學習的默認低成本基礎設施技術,這其中Google也起到不小的推動作用。但是Google、微軟等IT巨頭從未放棄其他人工智能芯片技術領域的探索,這其中包括用來處理多種AI工作任務的FPGA芯片技術。而TPU則是Google的原創技術,已經應用于Google圖像搜索、GoogleCloud Vision API等生産環境。


TPU處理器芯片的内存是K80這樣的GPU芯片的3.5倍,而體積卻更小,每瓦特功耗的處理性能則是GPU的30-80倍。


相比大多數IT互聯網企業,Google是人工智能神經網絡的先行者和踐行者,早在2013年Google就宣稱為了滿足不斷膨脹的人工智能計算需求,Google需要将當時的數據中心服務器計算力提高一倍,而如果基于通用芯片實現這一點,成本會高得難以承受,因此Google開始研發性能價格比10倍于GPU的人工智能專用芯片。


為了提高TPU的部署效率,Google的TPU沒有選擇于CPU集成,而是以協處理器的方式直接插入PCIe總線,可以像GPU一樣在現有的服務器上“即插即用”。從設計架構的角度來看,TPU更接近FPU(浮點運算協處理器)而不是GPU。


公司地址:浙江省嘉興市經濟開發區正原路66号

Address:NO.66 Zhengyuan Road,Jiaxing City,Zhejiang Province,China

TEL:0573-83651818

分公司地址:深圳市寶安區新安街道28區大寶路49-1号金富來大廈801-809室

Branch Address: Jinfulai building room 801-809,Dabao Road No. 49-1,Xin'an Street 28,Baoan District,Shenzhen,City

TEL:0755-83868856

微信

Copyright © 2020 嘉興佳利電子有限公司 版權所有

  • &nbsp&nbsp&nbsp&nbsp返回頂部
  • 在線咨詢
  • 在線咨詢
  • 在線咨詢
  • &nbsp&nbsp&nbsp&nbsp微信公衆号
    關注你附近
天下第一社区www在线资源网-WWW手机在线免费播放