神經(jīng)網(wǎng)絡(luò)的一致性
時間:2022-03-16 09:42:02 | 來源:行業(yè)動態(tài)
時間:2022-03-16 09:42:02 來源:行業(yè)動態(tài)
:在項目中提供3個train_model_xxx.ipynb,其中train_model.ipynb使用最經(jīng)典的AlexNet神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,其對應(yīng)的演示腳本就是前一篇文章的live_demo.ipynb,這是針對AlexNet神經(jīng)網(wǎng)絡(luò)的推理應(yīng)用。
如果在這里選擇使用改良過的ResNet18神經(jīng)網(wǎng)絡(luò)(train_model_resnet18.ipynb腳本),則演示的時候就得使用相同神經(jīng)網(wǎng)絡(luò)的live_demo_resnet18.ipynb,這些對應(yīng)不能有錯。
至于還有兩個與trt相關(guān)的演示腳本,也都是基于ResNet18神經(jīng)網(wǎng)絡(luò)的延伸功能,先用live_demo_resnet18_build_trt.ipynb腳本將best_model.pth轉(zhuǎn)換成TensorRT加速引擎的best_model_trt.pth,再用live_demo_resnet18_trt.ipynb調(diào)用進行演示,這會在推理過程使用更少的計算資源。
另外還有個train_model_plot.ipynb訓(xùn)練腳本,則是在AlexNet神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上添加可視化的檢視功能,對于模型訓(xùn)訓(xùn)練并沒有什么影響。
訓(xùn)練腳本里面的絕大部分參數(shù)都是經(jīng)過優(yōu)化處理的,除非您對這個神經(jīng)網(wǎng)絡(luò)相當熟悉,否則就不需要去改動,除了以下3個可以進行調(diào)整:
- batch_size:在Create data loaders to load data in batches步驟的train_loader與test_loader的batch_size可以根據(jù)設(shè)備顯存進行調(diào)整。
- NUM_EPOCHS:訓(xùn)練回合數(shù),基本上用30回應(yīng)該足夠,通常20回可能已經(jīng)進入收斂狀態(tài)。
- BEST_MODEL_PATH:最終輸出文件名,這個訓(xùn)練腳本會在訓(xùn)練回合數(shù)中找出精確度最高的一次結(jié)果,然后存成指定文件名。如果您要面向多個不同場地的話,可能需要訓(xùn)練多個模型,就可以自行設(shè)定。
-
關(guān)鍵詞:網(wǎng)絡(luò),神經(jīng)