2021年12月2日,北京
時間:2022-03-25 05:27:01 | 來源:行業(yè)動態(tài)
時間:2022-03-25 05:27:01 來源:行業(yè)動態(tài)
今日,Graphcore(擬未)正式公布其參與MLPerf測試的最新結果。結果顯示,與首次提交的MLPerf訓練結果相比,對于ResNet-50模型,Graphcore通過軟件優(yōu)化,在IPU-POD
16上實現(xiàn)了24%的性能提升,在IPU-POD
64上實現(xiàn)了41%的性能提升;對于自然語言處理(NLP)模型BERT來說,在IPU-POD
16上實現(xiàn)了5%的性能提升,在IPU-POD
64上實現(xiàn)了12%的性能提升。此次MLPerf測試結果證明了Graphcore的IPU系統(tǒng)越來越強大、高效,軟件日益成熟且更快、更易使用。
MLPerf還對比了市面上的Graphcore與NVIDIA的產品,通過在GPU占據(jù)優(yōu)勢的模型ResNet-50上進行測試,結果表明Graphcore的IPU-POD
16在計算機視覺模型ResNet-50方面的表現(xiàn)優(yōu)于NVIDIA的DGX A100。在DGX A100上訓練ResNet-50需要29.1分鐘,而IPU-POD
16僅耗時28.3分鐘,這是自Graphcore首次提交以來僅通過軟件實現(xiàn)的性能提升。其中,IPU-POD
16對ResNet-50的軟件驅動性能提高了24%,在IPU-POD
64上對ResNet-50的軟件驅動性能提升甚至更高,達到41%,對于Graphcore具有里程碑式的意義。
Graphcore最近發(fā)布的IPU-POD
128和IPU-POD
256橫向擴展系統(tǒng)也得出了結果,與上一輪MLPerf訓練相比,Graphcore的IPU-POD
16的BERT性能提高了5%,IPU-POD
64的BERT性能提高了12%。
- 對于Graphcore較大的旗艦系統(tǒng),在IPU-POD128上訓練ResNet-50的時間為5.67分鐘,在IPU-POD256上為3.79分鐘。
- 對于自然語言處理(NLP)模型BERT,Graphcore在開放和封閉類別分別提交了IPU-POD16、IPU-POD64和IPU-POD128的結果,在新的IPU-POD128上的訓練時間為5.78分鐘。
MLPerf的封閉分區(qū)嚴格要求提交者使用完全相同的模型實施和優(yōu)化器方法,其中包括定義超參數(shù)狀態(tài)和訓練時期。開放分區(qū)旨在通過在模型實施中提供更大的靈活性來促進創(chuàng)新,同時確保達到與封閉分區(qū)完全相同的模型準確性和質量。通過在開放分區(qū)展示BERT訓練的結果,Graphcore能夠讓客戶了解產品在實際運行中的性能,從而讓他們更傾向于使用此類優(yōu)化。