科技前沿 /front當前位置:首頁 > 科技與政策 > 科技前沿 > 

Google展示AI新實力:第二代TPU、AutoML以及一堆新功能

時間:2017-05-18閱讀量:57

18日凌晨,谷歌一年一度的開發者大會I/O拉開帷幕,CEO Sundar Pichai再次強調了谷歌 AI First 戰略的重要性,他表示機器學習已經在谷歌的諸多產品中得到了廣泛應用,包括搜索排序、街景、圖片搜索、智能回復、YouTube 推薦等。
一、發布第二代TPU:打造打造全球最先進的計算力芯片!
Pichai 在 2017 谷歌 I/O 大會宣布的第二代 TPU,既能夠加速推理,也能夠加速訓練。
第二代 TPU 設備單個的性能就能提供高達 180 teraflops 的浮點計算量。不僅如此,谷歌還將這些升級版的 TPU 集成在一起成為? Cloud TPU。每個 TPU 都包含了一個定制的高速網絡,構成了一個谷歌稱之為“TPU pod”的機器學習超級計算機。一個TPU pod 包含 64 個第二代TPU,最高可提供多達 11.5 petaflops,加速對單個大型機器學習模型的培訓。
Pichai 還在演講中表示,使用 TPU pods,谷歌已經大幅提升了訓練神經網絡的時間。谷歌的一個新的大型翻譯模型,以前要 32 顆商業上最好的 GPU 花費一整天的時間來訓練——現在,只需一個下午,8 個第二代 TPU 就能達到同樣的訓練精度。
就在上周,全球GPU 巨頭英偉達才揭幕了專門針對張量處理而升級的新款 GPU,今天google發布二代tpu。面對這枚核彈,不知道黃老板現在什么心里感受!這無疑宣布:包括臺積電、英特爾、博通和英偉達四大芯片巨頭在內的芯片企業將迎來一個更加可怕的怪獸!
二、開放獲取海量數據云服務平臺:發布Cloud? TPU !
第二代 TPU 設備單個的性能就能提供高達 180 teraflops 的浮點計算量。不僅如此,谷歌還將這些升級版的 TPU 集成在一起成為? Cloud TPU。每個 TPU 都包含了一個定制的高速網絡,構成了一個谷歌稱之為“TPU pod”的機器學習超級計算機。一個TPU pod 包含 64 個第二代TPU,最高可提供多達 11.5 petaflops,加速對單個大型機器學習模型的培訓。
Pichai 還在演講中表示,使用 TPU pods,谷歌已經大幅提升了訓練神經網絡的時間。谷歌的一個新的大型翻譯模型,以前要 32 顆商業上最好的 GPU 花費一整天的時間來訓練——現在,只需一個下午,8 個第二代 TPU 就能達到同樣的訓練精度。
谷歌將免費開放 1000 臺 Cloud TPU 供開發者和研究人員使用,并且推出了 TensorFlow Research Cloud。地址:https://www.tensorflow.org/tfrc/
作為谷歌云的主管之一,李飛飛:我加入谷歌正是出于這一原因,希望能保證每一個人都能利用AI,來保持自己的競爭力, 來解決對自己來說重要的問題。TPU只是其中的一部分。更多的是如何讓計算整件事民主化。對于大多數人來說,谷歌云讓這些難以獲得的硬件資源變得可用了。
不難看出,Google 將通過Cloud TPU來完成 海量高價值的數據的獲取和使用!同時也讓臺積電、英特爾、博通和英偉達四大芯片巨頭在內的芯片企業賣芯片賺錢增加了更多困難!同時,也讓全球的傳統云服務企業傻眼!
三、發布Google.AI? ,宣布完成AI產業商業閉環!
谷歌Google I/O 17發布了google.ai :將把自己所有的AI相關事務集合到一個網站Google.AI 上。這一平臺主要關注三件事:研究、工具和應用。
總結:Google i/o 2017發布的這兩枚核彈TPU和Cloud TPU:意味Google已經完成 :計算力(TPU)+算法框架(Tensor flow)+海量高價值數據(Cloud TPU)+主流戰場的業務布局(無人駕駛+醫療等業務)等四大戰略,形成了完整的AI產業商業閉環!這就是google,一家永遠站在技術最前沿,一家永遠依靠最先進的技術來驅動自己商業帝國的企業!?