国产成人精品无码青草_亚洲国产美女精品久久久久∴_欧美人与鲁交大毛片免费_国产果冻豆传媒麻婆精东

18143453325 在線咨詢 在線咨詢
18143453325 在線咨詢
所在位置: 首頁 > 營銷資訊 > 行業(yè)動態(tài) > 2021年12月2日,北京

2021年12月2日,北京

時間:2022-03-25 05:27:01 | 來源:行業(yè)動態(tài)

時間:2022-03-25 05:27:01 來源:行業(yè)動態(tài)

今日,Graphcore(擬未)正式公布其參與MLPerf測試的最新結果。結果顯示,與首次提交的MLPerf訓練結果相比,對于ResNet-50模型,Graphcore通過軟件優(yōu)化,在IPU-POD16上實現(xiàn)了24%的性能提升,在IPU-POD64上實現(xiàn)了41%的性能提升;對于自然語言處理(NLP)模型BERT來說,在IPU-POD16上實現(xiàn)了5%的性能提升,在IPU-POD64上實現(xiàn)了12%的性能提升。此次MLPerf測試結果證明了Graphcore的IPU系統(tǒng)越來越強大、高效,軟件日益成熟且更快、更易使用。

MLPerf還對比了市面上的Graphcore與NVIDIA的產品,通過在GPU占據(jù)優(yōu)勢的模型ResNet-50上進行測試,結果表明Graphcore的IPU-POD16在計算機視覺模型ResNet-50方面的表現(xiàn)優(yōu)于NVIDIA的DGX A100。在DGX A100上訓練ResNet-50需要29.1分鐘,而IPU-POD16僅耗時28.3分鐘,這是自Graphcore首次提交以來僅通過軟件實現(xiàn)的性能提升。其中,IPU-POD16對ResNet-50的軟件驅動性能提高了24%,在IPU-POD64上對ResNet-50的軟件驅動性能提升甚至更高,達到41%,對于Graphcore具有里程碑式的意義。



Graphcore最近發(fā)布的IPU-POD128和IPU-POD256橫向擴展系統(tǒng)也得出了結果,與上一輪MLPerf訓練相比,Graphcore的IPU-POD16的BERT性能提高了5%,IPU-POD64的BERT性能提高了12%。

MLPerf的封閉分區(qū)嚴格要求提交者使用完全相同的模型實施和優(yōu)化器方法,其中包括定義超參數(shù)狀態(tài)和訓練時期。開放分區(qū)旨在通過在模型實施中提供更大的靈活性來促進創(chuàng)新,同時確保達到與封閉分區(qū)完全相同的模型準確性和質量。通過在開放分區(qū)展示BERT訓練的結果,Graphcore能夠讓客戶了解產品在實際運行中的性能,從而讓他們更傾向于使用此類優(yōu)化。



關鍵詞:北京

74
73
25
news

版權所有? 億企邦 1997-2022 保留一切法律許可權利。

為了最佳展示效果,本站不支持IE9及以下版本的瀏覽器,建議您使用谷歌Chrome瀏覽器。 點擊下載Chrome瀏覽器
關閉