complete amp args
parent
b3f7e3b974
commit
09817fe859
|
@ -15,8 +15,11 @@ Global:
|
|||
save_inference_dir: ./inference
|
||||
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -16,8 +16,11 @@ Global:
|
|||
to_static: True
|
||||
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -15,8 +15,11 @@ Global:
|
|||
save_inference_dir: ./inference
|
||||
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -16,8 +16,11 @@ Global:
|
|||
save_inference_dir: ./inference
|
||||
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O2
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 65536
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O2
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -20,8 +20,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O1
|
||||
|
||||
|
|
|
@ -20,8 +20,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O2
|
||||
|
||||
|
|
|
@ -19,8 +19,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O2
|
||||
|
||||
|
|
|
@ -17,8 +17,11 @@ Global:
|
|||
|
||||
# mixed precision training
|
||||
AMP:
|
||||
use_amp: True
|
||||
use_fp16_test: False
|
||||
scale_loss: 128.0
|
||||
use_dynamic_loss_scaling: True
|
||||
use_promote: False
|
||||
# O1: mixed fp16, O2: pure fp16
|
||||
level: O2
|
||||
|
||||
|
|
Loading…
Reference in New Issue